home *** CD-ROM | disk | FTP | other *** search
/ Meeting Pearls 1 / Meeting Pearls Vol 1 (1994).iso / installed_progs / text / faqs / neural-net-faq < prev    next >
Encoding:
Internet Message Format  |  1994-03-28  |  107.0 KB

  1. Subject: FAQ in comp.ai.neural-nets -- monthly posting
  2. Newsgroups: comp.ai.neural-nets,comp.answers,news.answers
  3. From: prechelt@ira.uka.de (Lutz Prechelt)
  4. Date: 28 Mar 1994 02:17:47 GMT
  5.  
  6. Archive-name: neural-net-faq
  7. Last-modified: 94/03/21
  8.  
  9. (FAQ means "Frequently Asked Questions")
  10.  
  11.   ------------------------------------------------------------------------
  12.         Anybody who is willing to contribute any question or
  13.         information, please email me; if it is relevant,
  14.         I will incorporate it. But: PLEASE format your contribution
  15.         appropriately so that I can just drop it in.
  16.  
  17.         The monthly posting departs at the 28th of every month.
  18.   ------------------------------------------------------------------------
  19.  
  20. This is a monthly posting to the Usenet newsgroup comp.ai.neural-nets
  21. (and comp.answers, where it should be findable at ANY time)
  22. Its purpose is to provide basic information for individuals who are
  23. new to the field of neural networks or are just beginning to read this 
  24. group. It shall help to avoid lengthy discussion of questions that usually 
  25. arise for beginners of one or the other kind.
  26.  
  27. >>>>> SO, PLEASE, SEARCH THIS POSTING FIRST IF YOU HAVE A QUESTION <<<<<
  28.                            and
  29. >>>>> DON'T POST ANSWERS TO FAQs: POINT THE ASKER TO THIS POSTING <<<<<
  30.  
  31. This posting is archived in the periodic posting archive on
  32. host rtfm.mit.edu (and on some other hosts as well).
  33. Look in the anonymous ftp directory "/pub/usenet/news.answers",
  34. the filename is as given in the 'Archive-name:' header above.
  35. If you do not have anonymous ftp access, you can access the archives
  36. by mail server as well.  Send an E-mail message to
  37. mail-server@rtfm.mit.edu with "help" and "index" in the body on
  38. separate lines for more information.
  39.  
  40. For those of you who read this posting anywhere other than in 
  41. comp.ai.neural-nets: To read comp.ai.neural-nets (or post articles to it)
  42. you need Usenet News access. Try the commands, 'xrn', 'rn', 'nn', or 'trn'
  43. on your Unix machine, 'news' on your VMS machine, or ask a local guru.
  44.  
  45. The monthly posting is not meant to discuss any topic exhaustively.
  46.  
  47. Disclaimer: This posting is provided 'as is'.
  48.             No warranty whatsoever is expressed or implied, 
  49.             in particular, no warranty that the information contained herein
  50.             is correct or useful in any way, although both is intended.
  51.  
  52. >> To find the answer of question number <x> (if present at all), search
  53. >> for the string "-A<x>.)" (so the answer to question 12 is at "-A12.)")
  54.  
  55. And now, in the end, we begin:
  56.  
  57. ============================== Questions ==============================
  58.  
  59. (the short forms and non-continous numbering is intended)
  60. 1.)  What is this newsgroup for ?  How shall it be used ?
  61. 2.)  What is a neural network (NN) ?
  62. 3.)  What can you do with a Neural Network and what not ?
  63. 4.)  Who is concerned with Neural Networks ?
  64.  
  65. 6.)  What does 'backprop' mean ?
  66. 7.)  How many learning methods for NNs exist ?  Which ?
  67. 8.)  What about Genetic Algorithms ?
  68. 9.)  What about Fuzzy Logic ?
  69.  
  70. 10.) Good introductory literature about Neural Networks ?
  71. 11.) Any journals and magazines about Neural Networks ?
  72. 12.) The most important conferences concerned with Neural Networks ?
  73. 13.) Neural Network Associations ?
  74. 14.) Other sources of information about NNs ?
  75.  
  76. 15.) Freely available software packages for NN simulation ?
  77. 16.) Commercial software packages for NN simulation ?
  78. 17.) Neural Network hardware ?
  79.  
  80. 19.) Databases for experimentation with NNs ?
  81.  
  82. ============================== Answers ==============================
  83.  
  84. ------------------------------------------------------------------------
  85.  
  86. -A1.)  What is this newsgroup for ?
  87.  
  88. The newsgroup comp.ai.neural-nets is inteded as a forum for people who want
  89. to use or explore the capabilities of Artificial Neural Networks or 
  90. Neural-Network-like structures.
  91.  
  92. There should be the following types of articles in this newsgroup:
  93.  
  94. 1. Requests
  95.  
  96.   Requests are articles of the form 
  97.     "I am looking for X"
  98.   where X is something public like a book, an article, a piece of software.
  99.   The most important about such a request is to be as specific as possible!
  100.  
  101.   If multiple different answers can be expected, the person making the 
  102.   request should prepare to make a summary of the answers he/she got
  103.   and announce to do so with a phrase like
  104.     "Please reply by email, I'll summarize to the group"
  105.   at the end of the posting.
  106.   
  107.   The Subject line of the posting should then be something like
  108.     "Request: X"
  109.  
  110. 2. Questions
  111.  
  112.   As opposed to requests, question ask for a larger piece of information or
  113.   a more or less detailed explanation of something.
  114.   To avoid lots of redundant traffic it is important that the poster
  115.   provides with the question all information s/he already has about the
  116.   subject asked and state the actual question as precise and narrow as
  117.   possible.
  118.   The poster should prepare to make a summary of the answers s/he got
  119.   and announce to do so with a phrase like
  120.     "Please reply by email, I'll summarize to the group"
  121.   at the end of the posting.
  122.  
  123.   The Subject line of the posting should be something like
  124.     "Question: this-and-that"
  125.   or have the form of a question (i.e., end with a question mark)
  126.  
  127. 3. Answers
  128.  
  129.   These are reactions to questions or requests.
  130.   As a rule of thumb articles of type "answer" should be rare.
  131.   Ideally, in most cases either the answer is too specific to be of general 
  132.   interest (and should thus be e-mailed to the poster) or a summary
  133.   was announced with the question or request (and answers should
  134.   thus be e-mailed to the poster).
  135.  
  136.   The subject lines of answers are automatically adjusted by the 
  137.   news software.
  138.   Note that sometimes longer threads of discussion evolve from an answer
  139.   to a question or request. In this case posters should change the
  140.   subject line suitably as soon as the topic goes too far away from the
  141.   one announced in the original subject line. You can still carry along
  142.   the old subject in parentheses in the form
  143.     "Subject: <...new subject...> (was: <...old subject...>)
  144.  
  145. 4. Summaries
  146.  
  147.   In all cases of requests or questions the answers for which can be assumed
  148.   to be of some general interest, the poster of the request or question 
  149.   shall summarize the ansers he/she received.
  150.   Such a summary should be announced in the original posting of the question
  151.   or request with a phrase like
  152.     "Please answer by email, I'll summarize"
  153.  
  154.   In such a case, people who answer to a question should NOT post their
  155.   answer to the newsgroup but instead mail them to the poster of the question
  156.   who collects and reviews them.
  157.   After about 5 to 20 days after the original posting, its poster should 
  158.   make the summary of answers and post it to the newsgroup.
  159.  
  160.   Some care should be invested into a summary:
  161.   a) simple concatenation of all the answers is not enough:
  162.      instead, redundancies, irrelevancies, verbosities, and errors
  163.      should be filtered out (as good as possible)
  164.   b) the answers should be separated clearly
  165.   c) the contributors of the individual answers should be identifiable
  166.      (unless they requested to remain anonymous [yes, that happens])
  167.   d) the summary should start with the "quintessence" of the answers,
  168.      as seen by the original poster
  169.   e) A summary should, when posted, clearly be indicated to be one
  170.      by giving it a Subject line starting with "SUMMARY:"
  171.  
  172.   Note that a good summary is pure gold for the rest of the newsgroup
  173.   community, so summary work will be most appreciated by all of us.
  174.   (Good summaries are more valuable than any moderator !  :-> )
  175.  
  176. 5. Announcements
  177.  
  178.   Some articles never need any public reaction.
  179.   These are called announcements (for instance for a workshop,
  180.   conference or the availability of some technical report or
  181.   software system).
  182.  
  183.   Announcements should be clearly indicated to be such by giving
  184.   them a subject line of the form
  185.     "Announcement: this-and-that"
  186.  
  187. 6. Reports
  188.  
  189.   Sometimes people spontaneously want to report something to the
  190.   newsgroup. This might be special experiences with some software,
  191.   results of own experiments or conceptual work, or especially 
  192.   interesting information from somewhere else.
  193.  
  194.   Reports should be clearly indicated to be such by giving
  195.   them a subject line of the form
  196.     "Report: this-and-that"
  197.   
  198. 7. Discussions
  199.  
  200.   An especially valuable possibility of Usenet is of course that of
  201.   discussing a certain topic with hundreds of potential participants.
  202.   All traffic in the newsgroup that can not be subsumed under one of
  203.   the above categories should belong to a discussion.
  204.  
  205.   If somebody explicitly wants to start a discussion, he/she can do so
  206.   by giving the posting a subject line of the form
  207.     "Subject: Discussion: this-and-that"
  208.  
  209.   It is quite difficult to keep a discussion from drifting into chaos,
  210.   but, unfortunately, as many many other newsgroups show there seems
  211.   to be no secure way to avoid this.
  212.   On the other hand, comp.ai.neural-nets has not had many problems
  213.   with this effect in the past, so let's just go and hope...   :->
  214.  
  215. ------------------------------------------------------------------------
  216.  
  217. -A2.)  What is a neural network (NN) ?
  218.  
  219.   [anybody there to write something better?
  220.    buzzwords: artificial vs. natural/biological; units and
  221.    connections; value passing; inputs and outputs; storage in structure
  222.    and weights; only local information; highly parallel operation ]
  223.  
  224. First of all, when we are talking about a neural network, we *should*
  225. usually better say "artificial neural network" (ANN), because that is
  226. what we mean  most of the time. Biological neural networks are much
  227. more complicated in their elementary structures than the mathematical
  228. models we use for ANNs.
  229.  
  230. A vague description is as follows:
  231.  
  232. An ANN is a network of many very simple processors ("units"), each
  233. possibly having a (small amount of) local memory. The units are
  234. connected by unidirectional communication channels ("connections"),
  235. which carry numeric (as opposed to symbolic) data.  The units operate
  236. only on their local data and on the inputs they receive via the
  237. connections.
  238.  
  239. The design motivation is what distinguishes neural networks from other
  240. mathematical techniques:
  241.  
  242. A neural network is a processing device, either an algorithm, or actual
  243. hardware, whose design was motivated by the design and functioning of human
  244. brains and components thereof.
  245.  
  246. Most neural networks have some sort of "training" rule
  247. whereby the weights of connections are adjusted on the basis of
  248. presented patterns.
  249. In other words, neural networks "learn" from examples,
  250. just like children learn to recognize dogs from examples of dogs,
  251. and exhibit some structural capability for generalization.
  252.  
  253. Neural networks normally have great potential for parallelism, since
  254. the computations of the components are independent of each other.
  255.  
  256. ------------------------------------------------------------------------
  257.  
  258. -A3.)  What can you do with a Neural Network and what not ?
  259.  
  260.   [preliminary]
  261.   
  262. In principle, NNs can compute any computable function, i.e. they can
  263. do everything a normal digital computer can do.
  264. Especially can anything that can be represented as a mapping between
  265. vector spaces be approximated to arbitrary precision by feedforward
  266. NNs (which is the most often used type).
  267.  
  268. In practice, NNs are especially useful for mapping problems
  269. which are tolerant of a high error rate, have lots of example data
  270. available, but to which hard and fast rules can not easily be applied.
  271. NNs are, at least today, difficult to apply successfully to problems
  272. that concern manipulation of symbols and memory.
  273.  
  274. ------------------------------------------------------------------------
  275.  
  276. -A4.)  Who is concerned with Neural Networks ?
  277.  
  278. Neural Networks are interesting for quite a lot of very dissimilar people:
  279.  
  280. - Computer scientists want to find out about the properties of 
  281.   non-symbolic information processing with neural nets and about learning 
  282.   systems in general.
  283. - Engineers of many kinds want to exploit the capabilities of 
  284.   neural networks on many areas (e.g. signal processing) to solve 
  285.   their application problems.
  286. - Cognitive scientists view neural networks as a possible apparatus to
  287.   describe models of thinking and conscience (High-level brain function).
  288. - Neuro-physiologists use neural networks to describe and explore
  289.   medium-level brain function (e.g. memory, sensory system, motorics).
  290. - Physicists use neural networks to model phenomena in statistical
  291.   mechanics and for a lot of other tasks.
  292. - Biologists use Neural Networks to interpret nucleotide sequences.
  293. - Philosophers and some other people may also be interested in 
  294.   Neural Networks for various reasons.
  295.  
  296. ------------------------------------------------------------------------
  297.  
  298. -A6.)  What does 'backprop' mean ?
  299.  
  300. [anybody to write something similarly short,
  301.  but easier to understand for a beginner ? ]
  302.  
  303. It is an abbreviation for 'backpropagation of error' which is the
  304. most widely used learning method for neural networks today.
  305. Although it has many disadvantages, which could be summarized in the
  306. sentence
  307.   "You are almost not knowing what you are actually doing
  308.    when using backpropagation"  :-)
  309. it has pretty much success on practical applications and is
  310. relatively easy to apply.
  311.  
  312. It is for the training of layered (i.e., nodes are grouped
  313. in layers) feedforward (i.e., the arcs joining nodes are
  314. unidirectional, and there are no cycles) nets.
  315.  
  316. Back-propagation needs a teacher that knows the correct output for any
  317. input ("supervised learning") and uses gradient descent on the error
  318. (as provided by the teacher) to train the weights.  The activation
  319. function is (usually) a sigmoidal (i.e., bounded above and below, but
  320. differentiable) function of a weighted sum of the nodes inputs.
  321.  
  322. The use of a gradient descent algorithm to train its weights makes it
  323. slow to train; but being a feedforward algorithm, it is quite rapid during
  324. the recall phase.
  325.  
  326. Literature:
  327.   Rumelhart, D. E. and McClelland, J. L. (1986): 
  328.   Parallel Distributed Processing: Explorations in the
  329.   Microstructure of Cognition (volume 1, pp 318-362). 
  330.   The MIT Press. 
  331. (this is the classic one) or one of the dozens of other books 
  332. or articles on backpropagation  :->
  333.  
  334. ------------------------------------------------------------------------
  335.  
  336. -A7.)  How many learning methods for NNs exist ?  Which ?
  337.  
  338. There are many many learning methods for NNs by now. Nobody can know 
  339. exactly how many.
  340. New ones (at least variations of existing ones) are invented every
  341. week. Below is a collection of some of the most well known methods;
  342. not claiming to be complete.
  343.  
  344. The main categorization of these methods is the distiction of 
  345. supervised from unsupervised learning:
  346.  
  347. - In supervised learning, there is a "teacher" who in the learning
  348.   phase "tells" the net how well it performs ("reinforcement learning")
  349.   or what the correct behavior would have been ("fully supervised learning").
  350.  
  351. - In unsupervised learning the net is autonomous: it just looks at
  352.   the data it is presented with, finds out about some of the
  353.   properties of the data set and learns to reflect these properties 
  354.   in its output. What exactly these properties are, that the network
  355.   can learn to recognise, depends on the particular network model and
  356.   learning method.
  357.   
  358. Many of these learning methods are closely connected with a certain
  359. (class of) network topology.
  360.  
  361. Now here is the list, just giving some names:
  362.   
  363. 1. UNSUPERVISED LEARNING (i.e. without a "teacher"):
  364.        1). Feedback Nets:
  365.        a). Additive Grossberg (AG)
  366.        b). Shunting Grossberg (SG)
  367.        c). Binary Adaptive Resonance Theory (ART1)
  368.        d). Analog Adaptive Resonance Theory (ART2, ART2a)
  369.        e). Discrete Hopfield (DH)
  370.        f). Continuous Hopfield (CH)
  371.        g). Discrete Bidirectional Associative Memory (BAM)
  372.        h). Temporal Associative Memory (TAM)
  373.        i). Adaptive Bidirectional Associative Memory (ABAM)
  374.            j). Kohonen Self-organizing Map/Topology-preserving map (SOM/TPM)
  375.            k). Competitive learning
  376.        2). Feedforward-only Nets:
  377.        a). Learning Matrix (LM)
  378.        b). Driver-Reinforcement Learning (DR)
  379.        c). Linear Associative Memory (LAM)
  380.        d). Optimal Linear Associative Memory (OLAM)
  381.        e). Sparse Distributed Associative Memory (SDM)
  382.        f). Fuzzy Associative Memory (FAM)
  383.        g). Counterprogation (CPN)
  384.  
  385. 2. SUPERVISED LEARNING (i.e. with a "teacher"):
  386.        1). Feedback Nets:
  387.        a). Brain-State-in-a-Box (BSB)
  388.        b). Fuzzy Congitive Map (FCM)
  389.        c). Boltzmann Machine (BM)
  390.            d). Mean Field Annealing (MFT)
  391.            e). Recurrent Cascade Correlation (RCC)
  392.        f). Learning Vector Quantization (LVQ)
  393.            g). Backpropagation through time (BPTT)
  394.            h). Real-time recurrent learning (RTRL)
  395.            i). Recurrent Extended Kalman Filter (EKF)
  396.        2). Feedforward-only Nets:
  397.        a). Perceptron
  398.        b). Adaline, Madaline
  399.        c). Backpropagation (BP)
  400.        d). Cauchy Machine (CM)
  401.        e). Adaptive Heuristic Critic (AHC)
  402.            f). Time Delay Neural Network (TDNN)
  403.        g). Associative Reward Penalty (ARP)
  404.        h). Avalanche Matched Filter (AMF)
  405.            i). Backpercolation (Perc)
  406.            j). Artmap
  407.            k). Adaptive Logic Network (ALN)
  408.            l). Cascade Correlation (CasCor)
  409.            m). Extended Kalman Filter(EKF)
  410.  
  411. ------------------------------------------------------------------------
  412.  
  413. -A8.)  What about Genetic Algorithms ?
  414.  
  415. There are a number of definitions of GA (Genetic Algorithm).
  416. A possible one is
  417.  
  418.   A GA is an optimization program
  419.   that starts with 
  420.   a population of encoded procedures,       (Creation of Life :-> )
  421.   mutates them stochastically,              (Get cancer or so :-> )
  422.   and uses a selection process              (Darwinism)
  423.   to prefer the mutants with high fitness
  424.   and perhaps a recombination process       (Make babies :-> )
  425.   to combine properties of (preferably) the succesful mutants.
  426.  
  427. There is a newsgroup that is dedicated to the field of evolutionary
  428. computation called comp.ai.genetic.
  429. It has a detailed FAQ posting which, for instance, explains the terms
  430. "Genetic Algorithm", "Evolutionary Programming", "Evolution Strategy",
  431. "Classifier System", and "Genetic Programming".
  432. That FAQ also contains lots of pointers to relevant literature, software,
  433. other sources of information, et cetera et cetera.
  434. Please see the comp.ai.genetic FAQ for further information.
  435.  
  436. ------------------------------------------------------------------------
  437.  
  438. -A9.)  What about Fuzzy Logic ?
  439.  
  440. [preliminary]
  441. [Who will write an introduction?]
  442.  
  443. Fuzzy Logic is an area of research based on the work of L.A. Zadeh.
  444. It is a departure from classical two-valued sets and logic, that uses
  445. "soft" linguistic (e.g. large, hot, tall) system variables and a
  446. continuous range of truth values in the interval [0,1], rather than
  447. strict binary (True or False) decisions and assignments.
  448.  
  449. Fuzzy logic is used where a system is difficult to model exactly (but
  450. an inexact model is available), is controlled by a human operator or
  451. expert, or where ambiguity or vagueness is common.  A typical fuzzy
  452. system consists of a rule base, membership functions, and an inference
  453. procedure.
  454.  
  455. Most Fuzzy Logic discussion takes place in the newsgroup comp.ai.fuzzy,
  456. but there is also some work (and discussion) about combining fuzzy
  457. logic with Neural Network approaches in comp.ai.neural-nets.
  458.  
  459. For more details see (for example):
  460.  
  461. Klir, G.J. and Folger, T.A., Fuzzy Sets, Uncertainty, and 
  462. Information, Prentice-Hall, Englewood 
  463. Cliffs, N.J., 1988.
  464.  
  465. Kosko, B., Neural Networks and Fuzzy Systems, Prentice Hall, 
  466. Englewood Cliffs, NJ, 1992.
  467.  
  468. ------------------------------------------------------------------------
  469.  
  470. -A10.) Good introductory literature about Neural Networks ?
  471.  
  472. 0.) The best (subjectively, of course -- please don't flame me):
  473.  
  474. Hecht-Nielsen, R. (1990). Neurocomputing. Addison Wesley.
  475. Comments: "A good book", "comprises a nice historical overview and a chapter
  476. about NN hardware. Well structured prose. Makes important concepts clear."
  477.  
  478. Hertz, J., Krogh, A., and Palmer, R. (1991). Introduction to the Theory of 
  479. Neural Computation. Addison-Wesley: Redwood City, California.
  480. ISBN 0-201-50395-6 (hardbound) and 0-201-51560-1 (paperbound)
  481. Comments: "My first impression is that this one is by far the best book on 
  482. the topic. And it's below $30 for the paperback."; "Well written, theoretical
  483. (but not overwhelming)"; It provides a good balance of model development, 
  484. computational algorithms, and applications. The mathematical derivations 
  485. are especially well done"; "Nice mathematical analysis on the mechanism of 
  486. different learning algorithms"; "It is NOT for mathematical beginner.
  487. If you don't have a good grasp of higher level math, this book can
  488. be really tough to get through."
  489.  
  490.  
  491. 1.) Books for the beginner:
  492.  
  493. Aleksander, I. and Morton, H. (1990). An Introduction to Neural Computing.
  494. Chapman and Hall. (ISBN 0-412-37780-2).
  495. Comments: "This book seems to be intended for the first year of university 
  496. education."
  497.  
  498. Beale, R. and Jackson, T. (1990). Neural Computing, an Introduction.
  499. Adam Hilger, IOP Publishing Ltd : Bristol. (ISBN 0-85274-262-2).
  500. Comments: "It's clearly written.  Lots of hints as to how to get the
  501. adaptive models covered to work (not always well explained in the
  502. original sources).  Consistent mathematical terminology.  Covers
  503. perceptrons, error-backpropagation, Kohonen self-org model, Hopfield
  504. type models, ART, and associative memories."
  505.  
  506. Dayhoff, J. E. (1990). Neural Network Architectures: An Introduction.
  507. Van Nostrand Reinhold: New York.
  508. Comments: "Like Wasserman's book, Dayhoff's book is also very easy to 
  509. understand".
  510.  
  511. Haykin, S. (1994). Neural Networks, a Comprehensive Foundation.
  512. Macmillan, New York, NY.
  513.  
  514. McClelland, J. L. and Rumelhart, D. E. (1988).
  515. Explorations in Parallel Distributed Processing: Computational Models of 
  516. Cognition and Perception (software manual). The MIT Press.
  517. Comments: "Written in a tutorial style, and includes 2 diskettes of NN 
  518. simulation programs that can be compiled on MS-DOS or Unix (and they do 
  519. too !)"; "The programs are pretty reasonable as an introduction to some 
  520. of the things that NNs can do."; "There are *two* editions of this book.  
  521. One comes with disks for the IBM PC, the other comes with disks for the 
  522. Macintosh".
  523.  
  524. McCord Nelson, M. and Illingworth, W.T. (1990). A Practical Guide to Neural 
  525. Nets. Addison-Wesley Publishing Company, Inc. (ISBN 0-201-52376-0).
  526. Comments: "No formulas at all( ==> no good)"; "It does not have much 
  527. detailed model development (very few equations), but it does present many 
  528. areas of application.  It includes a chapter on current areas of research. 
  529. A variety of commercial applications is discussed in chapter 1.  It also 
  530. includes a program diskette with a fancy graphical interface (unlike the 
  531. PDP diskette)".
  532.  
  533. Muller, B. and Reinhardt, J. (1990).  Neural Networks, An Introduction.
  534. Springer-Verlag: Berlin Heidelberg New York (ISBN: 3-540-52380-4 and
  535. 0-387-52380-4).
  536. Comments: The book was developed out of a course on neural-network
  537. models with computer demonstrations that was taught by the authors
  538. to Physics students. The book comes together with a PC-diskette.
  539. The book is divided into three parts: 
  540. 1) Models of Neural Networks; describing several architectures
  541.    and learing rules, including the mathematics.
  542. 2) Statistical Physiscs of Neural Networks; "hard-core" physics
  543.    section developing formal theories of stochastic neural networks.
  544. 3) Computer Codes; explanation about the demonstration programs.
  545. First part gives a nice introduction into neural networks together
  546. with the formulas. Together with the demonstration programs a 'feel'
  547. for neural networks can be developed.
  548.  
  549. Orchard, G.A. & Phillips, W.A. (1991). Neural Computation: A
  550. Beginner's Guide. Lawrence Earlbaum Associates: London.
  551. Comments: "Short user-friendly introduction to the area, with a 
  552. non-technical flavour. Apparently accompanies a software package, but I 
  553. haven't seen that yet".
  554.  
  555. Wasserman, P. D. (1989). Neural Computing: Theory & Practice.
  556. Van Nostrand Reinhold: New York. (ISBN 0-442-20743-3)
  557. Comments: "Wasserman flatly enumerates some common architectures from an 
  558. engineer's perspective ('how it works') without ever addressing the underlying 
  559. fundamentals ('why it works') - important basic concepts such as clustering, 
  560. principal components or gradient descent are not treated.  It's also full of 
  561. errors, and unhelpful diagrams drawn with what appears to be PCB board layout 
  562. software from the '70s. For anyone who wants to do active research in the 
  563. field I consider it quite inadequate"; "Okay, but too shallow"; "Quite
  564. easy to understand";
  565. "The best bedtime reading for Neural Networks.  I have given
  566. this book to numerous collegues who want to know NN basics, but who never
  567. plan to implement anything.  An excellent book to give your manager."
  568.  
  569. Wasserman, P.D. (1993). Advanced Methods in Neural Computing. 
  570. Van Nostrand Reinhold: New York (ISBN: 0-442-00461-3).
  571. Comments: Several neural network topics are discussed e.g.
  572. Probalistic Neural Networks, Backpropagation and beyond, 
  573. neural control, Radial Basis Function Networks, 
  574. Neural Engineering. Furthermore, several subjects 
  575. related to neural networks are mentioned e.g. 
  576. genetic algorithms, fuzzy logic, chaos. Just the functionality
  577. of these subjects is described; enough to get you started.
  578. Lots of references are given to more elaborate descriptions.
  579. Easy to read, no extensive mathematical background necessary.
  580.  
  581.  
  582. 2.) The classics:
  583.  
  584. Kohonen, T. (1984). Self-organization and Associative Memory. Springer-Verlag:
  585. New York. (2nd Edition: 1988; 3rd edition: 1989). 
  586. Comments: "The section on Pattern mathematics is excellent."
  587.  
  588. Rumelhart, D. E. and McClelland, J. L. (1986). Parallel Distributed 
  589. Processing: Explorations in the Microstructure of Cognition (volumes 1 & 2). 
  590. The MIT Press. 
  591. Comments: "As a computer scientist I found the two Rumelhart and McClelland 
  592. books really heavy going and definitely not the sort of thing to read if you 
  593. are a beginner."; "It's quite readable, and affordable (about $65 for both 
  594. volumes)."; "THE Connectionist bible.".
  595.  
  596.  
  597. 3.) Introductory journal articles:
  598.  
  599. Hinton, G. E. (1989). Connectionist learning procedures.
  600. Artificial Intelligence, Vol. 40, pp. 185--234.
  601. Comments: "One of the better neural networks overview papers, although the
  602. distinction between network topology and learning algorithm is not always
  603. very clear.  Could very well be used as an introduction to neural networks."
  604.  
  605. Knight, K. (1990). Connectionist, Ideas and Algorithms. Communications of 
  606. the ACM. November 1990. Vol.33 nr.11, pp 59-74.
  607. Comments:"A good article, while it is for most people easy to find a copy of
  608. this journal."
  609.  
  610. Kohonen, T. (1988). An Introduction to Neural Computing. Neural Networks,
  611. vol. 1, no. 1. pp. 3-16.
  612. Comments: "A general review".
  613.  
  614.  
  615. 4.) Not-quite-so-introductory literature:
  616.  
  617. Anderson, J. A. and Rosenfeld, E. (Eds). (1988). Neurocomputing: 
  618. Foundations of Research. The MIT Press: Cambridge, MA.
  619. Comments: "An expensive book, but excellent for reference. It is a 
  620. collection of reprints of most of the major papers in the field."; 
  621.  
  622. Anderson, J. A., Pellionisz, A. and Rosenfeld, E. (Eds). (1990).
  623. Neurocomputing 2: Directions for Research. The MIT Press: Cambridge, MA.
  624. Comments: "The sequel to their well-known Neurocomputing book."
  625.  
  626. Caudill, M. and Butler, C. (1990). Naturally Intelligent Systems.
  627. MIT Press: Cambridge, Massachusetts. (ISBN 0-262-03156-6).
  628. Comments: "I guess one of the best books I read"; "May not be suited for 
  629. people who want to do some research in the area".
  630.  
  631. Khanna, T. (1990). Foundations of Neural Networks. Addison-Wesley: New York.
  632. Comments: "Not so bad (with a page of erroneous formulas (if I remember 
  633. well), and #hidden layers isn't well described)."; "Khanna's intention
  634. in writing his book with math analysis should be commended but he
  635. made several mistakes in the math part".
  636.  
  637. Kung, S.Y. (1993). Digital Neural Networks, Prentice Hall,
  638. Englewood Cliffs, NJ.
  639.  
  640. Levine, D. S. (1990). Introduction to Neural and Cognitive Modeling.
  641. Lawrence Erlbaum: Hillsdale, N.J.
  642. Comments: "Highly recommended".
  643.  
  644. Lippmann, R. P. (April 1987). An introduction to computing with neural nets.
  645. IEEE Acoustics, Speech, and Signal Processing Magazine. vol. 2,
  646. no. 4, pp 4-22.
  647. Comments: "Much acclaimed as an overview of neural networks, but rather 
  648. inaccurate on several points.  The categorization into binary and continuous-
  649. valued input neural networks is rather arbitrary, and may work confusing for
  650. the unexperienced reader.  Not all networks discussed are of equal importance."
  651.  
  652. Maren, A., Harston, C. and Pap, R., (1990). Handbook of Neural Computing 
  653. Applications.  Academic Press. ISBN: 0-12-471260-6. (451 pages)
  654. Comments: "They cover a broad area"; "Introductory with suggested
  655. applications implementation".
  656.  
  657. Pao, Y. H. (1989). Adaptive Pattern Recognition and Neural Networks
  658. Addison-Wesley Publishing Company, Inc. (ISBN 0-201-12584-6)
  659. Comments: "An excellent book that ties together classical approaches
  660. to pattern recognition with Neural Nets.  Most other NN books do not
  661. even mention conventional approaches."
  662.  
  663. Rumelhart, D. E., Hinton, G. E. and Williams, R. J. (1986). Learning
  664. representations by back-propagating errors. Nature, vol 323 (9 October),
  665. pp. 533-536.
  666. Comments: "Gives a very good potted explanation of backprop NN's. It gives 
  667. sufficient detail to write your own NN simulation."
  668.  
  669. Simpson, P. K. (1990). Artificial Neural Systems: Foundations, Paradigms,
  670. Applications and Implementations. Pergamon Press: New York.
  671. Comments: "Contains a very useful 37 page bibliography. A large number of
  672. paradigms are presented. On the negative side the book is very shallow. 
  673. Best used as a complement to other books".
  674.  
  675. Zeidenberg. M. (1990). Neural Networks in Artificial Intelligence.
  676. Ellis Horwood, Ltd., Chichester.
  677. Comments: "Gives the AI point of view".
  678.  
  679. Zornetzer, S. F., Davis, J. L. and Lau, C. (1990). An Introduction to 
  680. Neural and Electronic Networks. Academic Press. (ISBN 0-12-781881-2)
  681. Comments: "Covers quite a broad range of topics (collection of 
  682. articles/papers )."; "Provides a primer-like introduction and overview for
  683. a broad audience, and employs a strong interdisciplinary emphasis".
  684.  
  685. ------------------------------------------------------------------------
  686.  
  687. -A11.) Any journals and magazines about Neural Networks ?
  688.  
  689.  
  690. [to be added: comments on speed of reviewing and publishing,
  691.               whether they accept TeX format or ASCII by e-mail, etc.]
  692.  
  693. A. Dedicated Neural Network Journals:
  694. =====================================
  695.  
  696. Title:      Neural Networks
  697. Publish: Pergamon Press
  698. Address: Pergamon Journals Inc., Fairview Park, Elmsford, 
  699.      New York 10523, USA and Pergamon Journals Ltd.
  700.      Headington Hill Hall, Oxford OX3, 0BW, England
  701. Freq.:      6 issues/year (vol. 1 in 1988)
  702. Cost/Yr: Free with INNS membership ($45?), Individual $65, Institution $175
  703. ISSN #:     0893-6080
  704. Remark:  Official Journal of International Neural Network Society (INNS).
  705.      Contains Original Contributions, Invited Review Articles, Letters
  706.      to Editor, Invited Book Reviews, Editorials, Announcements and INNS
  707.      News, Software Surveys.  This is probably the most popular NN journal.
  708.      (Note: Remarks supplied by Mike Plonski "plonski@aero.org")
  709. -------
  710. Title:     Neural Computation
  711. Publish: MIT Press 
  712. Address: MIT Press Journals, 55 Hayward Street Cambridge, 
  713.      MA 02142-9949, USA, Phone: (617) 253-2889
  714. Freq.:     Quarterly (vol. 1 in 1989)
  715. Cost/Yr: Individual $45, Institution $90, Students $35; Add $9 Outside USA
  716. ISSN #:     0899-7667
  717. Remark:  Combination of Reviews (10,000 words), Views (4,000 words)
  718.      and Letters (2,000 words).  I have found this journal to be of
  719.      outstanding quality.
  720.      (Note: Remarks supplied by Mike Plonski "plonski@aero.org")
  721. -----
  722. Title:      IEEE Transaction on Neural Networks
  723. Publish: Institute of Electrical and Electronics Engineers (IEEE)
  724. Address: IEEE Service Cemter, 445 Hoes Lane, P.O. Box 1331, Piscataway, NJ,
  725.      08855-1331 USA. Tel: (201) 981-0060
  726. Cost/Yr: $10 for Members belonging to participating IEEE societies
  727. Freq.:   Quarterly (vol. 1 in March 1990)
  728. Remark:     Devoted to the science and technology of neural networks
  729.      which disclose significant  technical knowledge, exploratory
  730.      developments and applications of neural networks from biology to
  731.      software to hardware.  Emphasis is on artificial neural networks.
  732.      Specific aspects include self organizing systems, neurobiological
  733.      connections, network dynamics and architecture, speech recognition,
  734.      electronic and photonic implementation, robotics and controls.
  735.      Includes Letters concerning new research results.
  736.      (Note: Remarks are from journal announcement)
  737. -----
  738. Title:     International Journal of Neural Systems
  739. Publish: World Scientific Publishing
  740. Address: USA: World Scientific Publishing Co., 687 Hartwell Street, Teaneck, 
  741.      NJ 07666. Tel: (201) 837-8858; Eurpoe: World Scientific Publishing 
  742.      Co. Pte. Ltd., 73 Lynton Mead, Totteridge, London N20-8DH, England. 
  743.      Tel: (01) 4462461; Other: World Scientific Publishing Co. Pte. Ltd.,
  744.      Farrer Road, P.O. Box 128, Singapore 9128. Tel: 2786188
  745. Freq.:     Quarterly (Vol. 1 in 1990?)
  746. Cost/Yr: Individual $42, Institution $88 (plus $9-$17 for postage)
  747. ISSN #:     0129-0657 (IJNS)
  748. Remark:  The International Journal of Neural Systems is a quarterly journal
  749.      which covers information processing in natural and artificial neural
  750.      systems. It publishes original contributions on all aspects of this
  751.      broad subject which involves physics, biology, psychology, computer
  752.      science and engineering. Contributions include research papers, 
  753.      reviews and short communications.  The journal presents a fresh 
  754.      undogmatic attitude towards this multidisciplinary field with the
  755.      aim to be a forum for novel ideas and improved understanding of 
  756.      collective and cooperative phenomena with computational capabilities.
  757.      (Note: Remarks supplied by B. Lautrup (editor),
  758.      "LAUTRUP%nbivax.nbi.dk@CUNYVM.CUNY.EDU" )
  759.          Review is reported to be very slow.
  760. ------
  761. Title:     Neural Network News
  762. Publish: AIWeek Inc.
  763. Address: Neural Network News, 2555 Cumberland Parkway, Suite 299, Atlanta, GA
  764.      30339 USA. Tel: (404) 434-2187
  765. Freq.:     Monthly (beginning September 1989)
  766. Cost/Yr: USA and Canada $249, Elsewhere $299
  767. Remark:     Commericial Newsletter
  768. ------
  769. Title:   Network: Computation in Neural Systems
  770. Publish: IOP Publishing Ltd
  771. Address: Europe: IOP Publishing Ltd, Techno House, Redcliffe Way, Bristol 
  772.      BS1 6NX, UK; IN USA: American Institute of Physics, Subscriber
  773.      Services 500 Sunnyside Blvd., Woodbury, NY  11797-2999
  774. Freq.:     Quarterly (1st issue 1990)
  775. Cost/Yr: USA: $180,  Europe: 110 pounds
  776. Remark:     Description: "a forum for integrating theoretical and experimental
  777.      findings across relevant interdisciplinary boundaries."  Contents:
  778.      Submitted articles reviewed by two technical referees  paper's 
  779.      interdisciplinary format and accessability."  Also Viewpoints and 
  780.      Reviews commissioned by the editors, abstracts (with reviews) of
  781.      articles published in other journals, and book reviews.
  782.      Comment: While the price discourages me (my comments are based upon
  783.      a free sample copy), I think that the journal succeeds very well.  The
  784.      highest density of interesting articles I have found in any journal. 
  785.      (Note: Remarks supplied by brandt kehoe "kehoe@csufres.CSUFresno.EDU")
  786. ------
  787. Title:   Connection Science: Journal of Neural Computing, 
  788.      Artificial Intelligence and Cognitive Research
  789. Publish: Carfax Publishing
  790. Address: Europe: Carfax Publishing Company, P. O. Box 25, Abingdon, 
  791.      Oxfordshire  OX14 3UE, UK.  USA: Carafax Publishing Company,
  792.      85 Ash Street, Hopkinton, MA 01748
  793. Freq.:   Quarterly (vol. 1 in 1989)
  794. Cost/Yr: Individual $82, Institution $184, Institution (U.K.) 74 pounds
  795. -----
  796. Title:      International Journal of Neural Networks
  797. Publish: Learned Information
  798. Freq.:      Quarterly (vol. 1 in 1989)
  799. Cost/Yr: 90 pounds
  800. ISSN #:     0954-9889
  801. Remark:  The journal contains articles, a conference report (at least the 
  802.      issue I have), news and a calendar.
  803.      (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  804. -----
  805. Title:      Concepts in NeuroScience
  806. Publish: World Scientific Publishing
  807. Address: Same Address (?) as for International Journal of Neural Systems
  808. Freq.:      Twice per year (vol. 1 in 1989)
  809. Remark:     Mainly Review Articles(?)
  810.      (Note: remarks by Osamu Saito "saito@nttica.NTT.JP")
  811. -----
  812. Title:      International Journal of Neurocomputing
  813. Publish: Elsevier Science Publishers
  814. Freq.:      Quarterly (vol. 1 in 1989)
  815. Remark:  Review has been reported to be fast (less than 3 months)
  816. -----
  817. Title:     Neurocomputers
  818. Publish: Gallifrey Publishing
  819. Address: Gallifrey Publishing, PO Box 155, Vicksburg, Michigan, 49097, USA
  820.      Tel: (616) 649-3772
  821. Freq.     Monthly (1st issue 1987?)
  822. ISSN #:     0893-1585
  823. Editor:     Derek F. Stubbs
  824. Cost/Yr: $32 (USA, Canada), $48 (elsewhere)
  825. Remark:     I only have one exemplar so I cannot give you much detail about
  826.          the contents. It is a very small one (12 pages) but it has a lot
  827.          of (short) information in it about e.g. conferences, books,
  828.          (new) ideas etc.  I don't think it is very expensive but I'm not sure.
  829.      (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  830. ------
  831. Title:   JNNS Newsletter (Newsletter of the Japan Neural Network Society)
  832. Publish: The Japan Neural Network Society
  833. Freq.:   Quarterly (vol. 1 in 1989)
  834. Remark:  (IN JAPANESE LANGUAGE) Official Newsletter of the Japan Neural 
  835.      Network Society(JNNS)
  836.      (Note: remarks by Osamu Saito "saito@nttica.NTT.JP")
  837. -------
  838. Title:     Neural Networks Today
  839. Remark:     I found this title in a bulletin board of october last year.
  840.          It was a message of Tim Pattison, timpatt@augean.OZ
  841.      (Note: remark provided by J.R.M. Smits "anjos@sci.kun.nl")
  842. -----
  843. Title:     Computer Simulations in Brain Science
  844. -----
  845. Title:   Internation Journal of Neuroscience
  846. -----
  847. Title:   Neural Network Computation 
  848. Remark:     Possibly the same as "Neural Computation"
  849. -----
  850. Title:   Neural Computing and Applications
  851. Freq.:   Quarterly
  852. Publish: Springer Verlag
  853. Cost/yr: 120 Pounds
  854. Remark:  Is the journal of the Neural Computing Applications Forum.
  855.          Publishes original research and other information
  856.          in the field of practical applications of neural computing.
  857.  
  858. B. NN Related Journals
  859. ======================
  860.  
  861. Title:      Complex Systems
  862. Publish: Complex Systems Publications
  863. Address: Complex Systems Publications, Inc., P.O. Box 6149, Champaign,
  864.      IL 61821-8149, USA
  865. Freq.:     6 times per year (1st volume is 1987)
  866. ISSN #:     0891-2513
  867. Cost/Yr: Individual $75, Institution $225
  868. Remark:  Journal COMPLEX SYSTEMS  devotes to the rapid publication of research
  869.      on the science, mathematics, and engineering of systems with simple
  870.      components but complex overall behavior. Send mail to 
  871.      "jcs@complex.ccsr.uiuc.edu" for additional info.
  872.      (Remark is from announcement on Net)
  873. -----
  874. Title:      Biological Cybernetics (Kybernetik)
  875. Publish: Springer Verlag
  876. Remark:  Monthly (vol. 1 in 1961)
  877. -----
  878. Title:      Various IEEE Transactions and Magazines
  879. Publish: IEEE
  880. Remark:  Primarily see IEEE Trans. on System, Man and Cybernetics; Various
  881.      Special Issues: April 1990 IEEE Control Systems Magazine.; May 1989
  882.      IEEE Trans. Circuits and Systems.; July 1988 IEEE Trans. Acoust. 
  883.      Speech Signal Process.
  884. -----
  885. Title:   The Journal of Experimental and Theoretical Artificial Intelligence
  886. Publish: Taylor & Francis, Ltd.
  887. Address: London, New York, Philadelphia
  888. Freq.:     ? (1st issue Jan 1989)
  889. Remark:     For submission information, please contact either of the editors:
  890.      Eric Dietrich                           Chris Fields
  891.      PACSS - Department of Philosophy        Box 30001/3CRL
  892.      SUNY Binghamton                         New Mexico State University
  893.      Binghamton, NY 13901                    Las Cruces, NM 88003-0001
  894.      dietrich@bingvaxu.cc.binghamton.edu     cfields@nmsu.edu
  895. -----
  896. Title:     The Behavioral and Brain Sciences
  897. Publish: Cambridge University Press
  898. Remark:     (Expensive as hell, I'm sure.)
  899.      This is a delightful journal that encourages discussion on a
  900.      variety of controversial topics.  I have especially enjoyed reading
  901.      some papers in there by Dana Ballard and Stephen Grossberg (separate
  902.      papers, not collaborations) a few years back.  They have a really neat
  903.      concept:  they get a paper, then invite a number of noted scientists
  904.      in the field to praise it or trash it.  They print these commentaries,
  905.      and give the author(s) a chance to make a rebuttal or concurrence.
  906.      Sometimes, as I'm sure you can imagine, things get pretty lively.  I'm
  907.      reasonably sure they are still at it--I think I saw them make a call
  908.      for reviewers a few months ago.  Their reviewers are called something
  909.      like Behavioral and Brain Associates, and I believe they have to be
  910.      nominated by current associates, and should be fairly well established
  911.      in the field.  That's probably more than I really know about it but
  912.      maybe if you post it someone who knows more about it will correct any
  913.      errors I have made.  The main thing is that I liked the articles I
  914.      read. (Note: remarks by Don Wunsch <dwunsch@blake.acs.washington.edu>)
  915. -----
  916. Title:      International Journal of Applied Intelligence
  917. Publish: Kluwer Academic Publishers
  918. Remark:  first issue in 1990(?)
  919. -----
  920. Title:      Bulletin of Mathematica Biology
  921. -----
  922. Title:   Intelligence
  923. -----
  924. Title:      Journal of Mathematical Biology
  925. -----
  926. Title:      Journal of Complex System
  927. -----
  928. Title:   AI Expert
  929. Publish: Miller Freeman Publishing Co., for subscription call ++415-267-7672.
  930. Remark:  Regularly includes ANN related articles, product
  931.          announcements, and application reports.
  932.          Listings of ANN programs are available on AI Expert affiliated BBS's
  933. -----
  934. Title:   International Journal of Modern Physics C
  935. Publish: World Scientific Publ. Co.
  936.          Farrer Rd. P.O.Box 128, Singapore 9128
  937.          or: 687 Hartwell St., Teaneck, N.J. 07666 U.S.A
  938.          or: 73 Lynton Mead, Totteridge, London N20 8DH, England
  939. Freq:    published quarterly
  940. Eds:     G. Fox, H. Herrmann and K. Kaneko
  941. -----
  942. Title:   Machine Learning
  943. Publish: Kluwer Academic Publishers
  944. Address: Kluwer Academic Publishers
  945.          P.O. Box 358
  946.          Accord Station
  947.          Hingham, MA 02018-0358 USA
  948. Freq.:     Monthly (8 issues per year; increasing to 12 in 1993)
  949. Cost/Yr: Individual $140 (1992); Member of AAAI or CSCSI $88
  950. Remark:     Description: Machine Learning is an international forum for 
  951.          research on computational approaches to learning.  The journal
  952.      publishes articles reporting substantive research results on a
  953.          wide range of learning methods applied to a variety of task
  954.          domains.  The ideal paper will make a theoretical contribution
  955.          supported by a computer implementation.
  956.          The journal has published many key papers in learning theory,
  957.          reinforcement learning, and decision tree methods.  Recently
  958.          it has published a special issue on connectionist approaches
  959.          to symbolic reasoning.  The journal regularly publishes
  960.          issues devoted to genetic algorithms as well.
  961. -----
  962. Title:   Journal of Physics A: Mathematical and General
  963. Publish: Inst. of Physics, Bristol
  964. Freq:    24 issues per year.
  965. Remark:  Statistical mechanics aspects of neural networks 
  966.          (mostly Hopfield models).
  967.  
  968. -----
  969. Title:   Physical Review A: Atomic, Molecular and Optical Physics
  970. Publish: The American Physical Society (Am. Inst. of Physics)
  971. Freq:    Monthly
  972. Remark:  Statistical mechanics of neural networks.
  973.  
  974.  
  975. C. Journals loosely related to NNs
  976. ==================================
  977.  
  978. JOURNAL OF COMPLEXITY
  979. (Must rank alongside Wolfram's Complex Systems)
  980.  
  981. IEEE ASSP Magazine
  982. (April 1987 had the Lippmann intro. which everyone likes to cite)
  983.  
  984. ARTIFICIAL INTELLIGENCE
  985. (Vol 40, September 1989 had the survey paper by Hinton)
  986.  
  987. COGNITIVE SCIENCE
  988. (the Boltzmann machine paper by Ackley et al appeared here in Vol 9, 1983)
  989.  
  990. COGNITION
  991. (Vol 28, March 1988 contained the Fodor and Pylyshyn critique of connectionism)
  992.  
  993. COGNITIVE PSYCHOLOGY
  994. (no comment!)
  995.  
  996. JOURNAL OF MATHEMATICAL PSYCHOLOGY
  997. (several good book reviews)
  998.  
  999. ------------------------------------------------------------------------
  1000.  
  1001. -A12.) The most important conferences concerned with Neural Networks ?
  1002.  
  1003. [to be added: has taken place how often yet; most emphasized topics;
  1004.  where to get proceedings/calls-for-papers etc. ]
  1005.  
  1006. A. Dedicated Neural Network Conferences:
  1007.    1. Neural Information Processing Systems (NIPS)
  1008.       Annually since 1988 in Denver, Colorado; late November or early December;
  1009.       (Interdisciplinary conference with computer science, physics, engineering,
  1010.       biology, medicine, cognitive science topics. Covers all aspects of NNs)
  1011.    2. International Joint Conference on Neural Networks (IJCNN)
  1012.       co-sponsored by INNS and IEEE
  1013.    3. Annual Conference on Neural Networks (ACNN)
  1014.    4. International Conference on Artificial Neural Networks (ICANN)
  1015.       Annually in Europe. First was 1991.
  1016.       Major conference of European Neur. Netw. Soc. (ENNS)
  1017.    5. Artificial Neural Networks in  Engineering (ANNIE)
  1018.       Anually since 1991 in St. Louis, Missouri; held in November.
  1019.       (Topics: NN architectures, pattern recognition, neuro-control,
  1020.        neuro-engineering systems.
  1021.        Contact: ANNIE; Engineering Management Department;
  1022.                 223 Engineering Management Building;
  1023.                 University of Missouri-Rolla; Rolla, MO 65401;
  1024.                 FAX: (314) 341-6567)
  1025.  
  1026. B. Other Conferences
  1027.    1. International Joint Conference on Artificial Intelligence (IJCAI)
  1028.    2. Intern. Conf. on Acustics, Speech and Signal Processing (ICASSP)
  1029.    3. Annual Conference of the Cognitive Science Society
  1030.    4. [Vision Conferences?]
  1031.  
  1032. C. Pointers to Conferences
  1033.    1. The journal "Neural Networks" has a long list of conferences, 
  1034.       workshops and meetings in each issue. 
  1035.       This is quite interdisciplinary.
  1036.    2. There is a regular posting on comp.ai.neural-nets from Paultje Bakker:
  1037.       "Upcoming Neural Network Conferences", which lists names, dates,
  1038.       locations, contacts, and deadlines.
  1039.  
  1040. ------------------------------------------------------------------------
  1041.  
  1042. -A13.) Neural Network Associations ?
  1043.  
  1044. [Is this data still correct ?  Who will send me some update ?]
  1045.  
  1046. 1. International Neural Network Society (INNS).
  1047.    INNS membership includes subscription to "Neural Networks",
  1048.    the official journal of the society.
  1049.    Membership is $55 for non-students and $45 for students per year.
  1050.    Address: INNS Membership, P.O. Box 491166, Ft. Washington, MD 20749.
  1051.  
  1052. 2. International Student Society for Neural Networks (ISSNNets).
  1053.    Membership is $5 per year.
  1054.    Address:  ISSNNet, Inc., P.O. Box 15661, Boston, MA 02215  USA
  1055.  
  1056. 3. Women In Neural Network Research and technology (WINNERS).
  1057.    Address: WINNERS, c/o Judith Dayhoff, 11141 Georgia Ave., Suite 206, 
  1058.             Wheaton, MD 20902.  Telephone: 301-933-9000.
  1059.  
  1060. 4. European Neural Network Society (ENNS)
  1061.  
  1062. 5. Japanese Neural Network Society (JNNS)
  1063.    Address: Japanese Neural Network Society
  1064.         Department of Engineering, Tamagawa University,
  1065.         6-1-1, Tamagawa Gakuen, Machida City, Tokyo,
  1066.         194 JAPAN
  1067.         Phone: +81 427 28 3457,    Fax: +81 427 28 3597
  1068.  
  1069. 6. Association des Connexionnistes en THese (ACTH)
  1070.    (the French Student Association for Neural Networks)
  1071.    Membership is 100 FF per year
  1072.    Activities : newsletter, conference (every year), list of members...
  1073.    Address : ACTH - Le Castelnau R2
  1074.              23 avenue de la Galline
  1075.              34170 Castelnau-le-Lez
  1076.              FRANCE
  1077.    Contact : jdmuller@vnet.ibm.com
  1078.  
  1079. 7. Neurosciences et Sciences de l'Ingenieur (NSI)
  1080.    Biology & Computer Science
  1081.    Activity : conference (every year)
  1082.    Address : NSI - TIRF / INPG
  1083.              46 avenue Felix Viallet
  1084.              38031 Grenoble Cedex
  1085.              FRANCE
  1086.  
  1087.  
  1088. ------------------------------------------------------------------------
  1089.  
  1090. -A14.) Other sources of information about NNs ?
  1091.  
  1092. 1. Neuron Digest
  1093.    Internet Mailing List.  From the welcome blurb:
  1094.      "Neuron-Digest is a list (in digest form) dealing with all aspects
  1095.       of neural networks (and any type of network or neuromorphic system)"
  1096.    Moderated by Peter Marvit.
  1097.    To subscribe, send email to neuron-request@cattell.psych.upenn.edu
  1098.    comp.ai.neural-net readers also find the messages in that newsgroup
  1099.    in the form of digests.
  1100.  
  1101. 2. Usenet groups comp.ai.neural-nets (Oha !  :-> )
  1102.              and comp.theory.self-org-sys
  1103.    There is a periodic posting on comp.ai.neural-nets sent by
  1104.    srctran@world.std.com (Gregory Aharonian) about Neural Network 
  1105.    patents.
  1106.  
  1107. 3. Central Neural System Electronic Bulletin Board
  1108.    Modem: 409-589-3338; Sysop: Wesley R. Elsberry;
  1109.    P.O. Box 4201, College Station, TX 77843; welsberr@orca.tamu.edu
  1110.    Many MS-DOS PD and shareware simulations, source code, benchmarks,
  1111.    demonstration packages, information files; some Unix, Macintosh, 
  1112.    Amiga related files.  Also available are files on AI, AI Expert 
  1113.    listings 1986-1991, fuzzy logic, genetic algorithms, artificial 
  1114.    life, evolutionary biology, and many Project Gutenberg and Wiretap 
  1115.    etexts.  No user fees have ever been charged.  Home of the 
  1116.    NEURAL_NET Echo, available thrugh FidoNet, RBBS-Net, and other 
  1117.    EchoMail compatible bulletin board systems.
  1118.  
  1119. 4. Neural ftp archive site  ftp.funet.fi
  1120.    Is administrating a large collection of neural network papers and
  1121.    software at the Finnish University Network file archive site
  1122.    ftp.funet.fi  in directory  /pub/sci/neural
  1123.    Contains all the public domain software and papers that they
  1124.    have been able to find.
  1125.    All of these files have been transferred from FTP sites in U.S.
  1126.    and are mirrored about every 3 months at fastest.
  1127.    Contact: neural-adm@ftp.funet.fi
  1128.  
  1129. 5. USENET newsgroup comp.org.issnnet
  1130.    Forum for discussion of academic/student-related issues in NNs, as
  1131.    well as information on ISSNNet (see A13) and its activities.
  1132.  
  1133. 6. AI CD-ROM
  1134.    Network Cybernetics Corporation produces the "AI CD-ROM". It is
  1135.    an ISO-9660 format CD-ROM and contains a large assortment of 
  1136.    software related to artificial intelligence, artificial life, virtual 
  1137.    reality, and other topics.  Programs for  OS/2, MS-DOS, Macintosh, UNIX, 
  1138.    and other operating systems are included.  Research papers, tutorials, 
  1139.    and other text files are included in ASCII, RTF, and other universal 
  1140.    formats.  The files have been collected from AI bulletin boards, 
  1141.    Internet archive sites, University computer deptartments, and  
  1142.    other government and civilian AI research organizations.  Network 
  1143.    Cybernetics Corporation intends to release annual revisions to the 
  1144.    AI CD-ROM to keep it up to date with current developments in the field.  
  1145.    The AI CD-ROM includes collections of files that address many
  1146.    specific AI/AL topics including:
  1147.       [... some stuff deleted...]
  1148.        - Neural Networks: Source code and executables for many different 
  1149.    platforms including Unix, DOS, and Macintosh.  ANN development tools, 
  1150.    example networks, sample data, and tutorials are included.  A complete 
  1151.    collection of Neural Digest is included as well.
  1152.       [... lots of stuff deleted...]
  1153.    The AI CD-ROM may be ordered directly by check, money order, bank
  1154.    draft, or credit card from:
  1155.     Network Cybernetics Corporation
  1156.     4201 Wingren Road Suite 202
  1157.     Irving, TX 75062-2763
  1158.     Tel 214/650-2002
  1159.     Fax 214/650-1929
  1160.    The cost is $129 per disc + shipping ($5/disc domestic or $10/disc foreign)
  1161.    (See the comp.ai FAQ for further details)
  1162.  
  1163. 7. http://www.eeb.ele.tue.nl
  1164.    In World-Wide-Web (WWW, for example via the xmosaic program) you
  1165.    can read neural network information by opening the universal resource
  1166.    locator (URL) http://www.eeb.ele.tue.nl
  1167.    It contains a hypertext version of this FAQ and other NN-related
  1168.    information.
  1169.  
  1170. 8. Neurosciences Internet Resource Guide
  1171.    This document aims to be a guide to existing, free, Internet-accessible
  1172.    resources helpful to neuroscientists of all stripes.
  1173.    An **ASCII text version** (86K) is available in the 
  1174.    Clearinghouse of Subject-Oriented Internet Resource Guides as 
  1175.    follows: 
  1176.    anonymous FTP:
  1177.         host:   una.hh.lib.umich.edu
  1178.         path:   /inetdirsstacks
  1179.         file:   neurosci:cormbonario
  1180.    gopher:
  1181.         via U. Minnesota list of gophers
  1182.         menu:   North America/USA/Michigan/Clearinghouse.../
  1183.                         All Guides/Neurosciences
  1184.    WWW:
  1185.         gopher://una.hh.lib.umich.edu/00/inetdirsstacks/
  1186.                 neurosci:cormbonario
  1187.    We are also creating a **hypertext version** of the guide:
  1188.    WWW:
  1189.         http://http2.sils.umich.edu/Public/nirg/nirg1.html
  1190.  
  1191. ------------------------------------------------------------------------
  1192.  
  1193. -A15.) Freely available software packages for NN simulation ?
  1194.  
  1195.  
  1196. [This is a bit chaotic and needs reorganization.
  1197.  A bit more information about what the various programs can do,
  1198.  on which platform they run, and how big they are would also be nice.
  1199.  And some important packages are still missing (?)
  1200.  Who volunteers for that ?]
  1201.  
  1202. 1. Rochester Connectionist Simulator
  1203.    A quite versatile simulator program for arbitrary types of 
  1204.    neural nets. Comes with a backprop package and a X11/Sunview
  1205.    interface.
  1206.    anonymous FTP from cs.rochester.edu (192.5.53.209) 
  1207.    directory :  pub/simulator
  1208.    files:               README                   (8 KB)
  1209.      (documentation:)   rcs_v4.2.justdoc.tar.Z   (1.6 MB)
  1210.      (source code:)     rcs_v4.2.justsrc.tar.Z   (1.4 MB)
  1211.  
  1212. 2. UCLA-SFINX
  1213.    ftp 131.179.16.6  (retina.cs.ucla.edu)
  1214.    Name: sfinxftp
  1215.    Password: joshua
  1216.    directory: pub/
  1217.    files : README
  1218.            sfinx_v2.0.tar.Z
  1219.    Email info request : sfinx@retina.cs.ucla.edu
  1220.  
  1221. 3. NeurDS
  1222.    request from mcclanahan%cookie.dec.com@decwrl.dec.com 
  1223.    simulator for DEC systems supporting VT100 terminal.
  1224.    OR
  1225.    anonymous ftp gatekeeper.dec.com [16.1.0.2]
  1226.    directory: pub/DEC
  1227.    file: NeurDS031.tar.Z ( please check may be NeurDSO31.tar.Z )
  1228.  
  1229. 4. PlaNet5.7 (also known as SunNet)
  1230.    ftp 133.15.240.3  (tutserver.tut.ac.jp)
  1231.    pub/misc/PlaNet5.7.tar.Z
  1232.      or 
  1233.    ftp 128.138.240.1 (boulder.colorado.edu) 
  1234.    pub/generic-sources/PlaNet5.7.tar.Z  (also the old PlaNet5.6.tar.Z)
  1235.    A popular connectionist simulator with versions to
  1236.    run under X Windows, and non-graphics terminals 
  1237.    created by Yoshiro Miyata (Chukyo Univ., Japan).  
  1238.    60-page User's Guide in Postscript.
  1239.    Send any questions to miyata@sccs.chukyo-u.ac.jp
  1240.  
  1241. 5. GENESIS
  1242.    GENESIS 1.4.1 (GEneral NEural SImulation System) is a general purpose
  1243.    simulation platform which was developed to support the simulation of
  1244.    neural systems ranging from complex models of single neurons to
  1245.    simulations of large networks made up of more abstract neuronal
  1246.    components.  Most current GENESIS applications involve realistic
  1247.    simulations of biological neural systems.  Although the software can
  1248.    also model more abstract networks, other simulators are more suitable
  1249.    for backpropagation and similar connectionist modeling.
  1250.    May be obtained via FTP from genesis.cns.caltech.edu [131.215.137.64].
  1251.    Use 'telnet' to genesis.cns.caltech.edu beforehands and login
  1252.    as the user "genesis" (no password required).  If you answer all the
  1253.    questions asked of you an 'ftp' account will automatically be created
  1254.    for you.  You can then 'ftp' back to the machine and download the
  1255.    software (ca. 3 MB).   Contact: genesis@cns.caltech.edu.
  1256.  
  1257. 6. Mactivation
  1258.    anonymous ftp from bruno.cs.colorado.edu [128.138.243.151]
  1259.    directory: /pub/cs/misc
  1260.    file: Mactivation-3.3.sea.hqx
  1261.  
  1262. 7. <defunct>
  1263.  
  1264. 8. Cascade Correlation Simulator
  1265.    A simulator based on Scott Fahlman's Cascade Correlation algorithm.
  1266.    Anonymous ftp from ftp.cs.cmu.edu [128.2.206.173]
  1267.    directory  /afs/cs/project/connect/code
  1268.    file       cascor1a.shar    (206 KB)
  1269.    There is also a version of recurrent cascade correlation in the same
  1270.    directory in file  rcc1.c (107 KB).
  1271.  
  1272. 9. Quickprop
  1273.    A variation of the back-propagation algorithm developed by
  1274.    Scott Fahlman.  A simulator is available in the same directory
  1275.    as the cascade correlation simulator above in file
  1276.    nevprop116.shar (137 KB)
  1277.    (see also the description of NEVPROP below)
  1278.  
  1279. 10. DartNet
  1280.    DartNet is a Macintosh-based backpropagation simulator, developed
  1281.    at Dartmouth by Jamshed Bharucha and Sean Nolan as a pedagogical tool. 
  1282.    It makes use of the Mac's graphical interface, and provides a number 
  1283.    of tools for building, editing, training, testing and examining 
  1284.    networks. This program is available by anonymous ftp from
  1285.    dartvax.dartmouth.edu [129.170.16.4] as
  1286.    /pub/mac/dartnet.sit.hqx  (124 KB).
  1287.  
  1288. 11. SNNS
  1289.    "Stuttgart Neural Network Simulator" from the University
  1290.    of Stuttgart, Germany.
  1291.    A luxurious simulator for many types of nets; with X11 interface:
  1292.    Graphical 2D and 3D topology editor/visualizer, training visualisation,
  1293.    etc.
  1294.    Currently supports backpropagation (vanilla, online, with momentum 
  1295.    term and flat spot elimination, batch, time delay), counterpropagation, 
  1296.    quickprop, backpercolation 1, generalized radial basis functions (RBF),
  1297.    RProp, ART1, ART2, ARTMAP, Cascade Correlation, Recurrent Cascade 
  1298.    Correlation, Dynamic LVQ, Backpropagation through time (for recurrent 
  1299.    networks), batch backpropagation through time (for recurrent networks),
  1300.    Quickpropagation through time (for recurrent networks),
  1301.    and is user-extendable.
  1302.  
  1303.    ftp: ftp.informatik.uni-stuttgart.de [129.69.211.2]
  1304.    directory /pub/SNNS
  1305.    file    SNNSv3.0.tar.Z   OR   SNNSv3.0.tar.Za[a-d]   ( 826 KB)
  1306.    manual  SNNSv2.1.Manual.ps.Z                         (1270 KB)
  1307.            SNNSv2.1.Readme                (8052 Bytes)
  1308.    
  1309. 12. Aspirin/MIGRAINES
  1310.    Aspirin/MIGRAINES 6.0 consists of a code generator that builds neural network
  1311.    simulations by reading a network description (written in a language
  1312.    called "Aspirin") and generates a C simulation. An interface 
  1313.    (called "MIGRAINES") is provided to export data from the neural
  1314.    network to visualization tools.
  1315.    The system has been ported to a large number of platforms.
  1316.      The goal of Aspirin is to provide a common extendible front-end language 
  1317.    and parser for different network paradigms.
  1318.      The MIGRAINES interface is a terminal based interface
  1319.    that allows you to open Unix pipes to data in the neural
  1320.    network. This replaces the NeWS1.1 graphical interface
  1321.    in version 4.0 of the Aspirin/MIGRAINES software. The
  1322.    new interface is not a simple to use as the version 4.0
  1323.    interface but is much more portable and flexible.
  1324.      The MIGRAINES interface allows users to output
  1325.    neural network weight and node vectors to disk or to
  1326.    other Unix processes. Users can display the data using
  1327.    either public or commercial graphics/analysis tools.
  1328.    Example filters are included that convert data exported through
  1329.    MIGRAINES to formats readable by Gnuplot 3.0, Matlab, Mathematica,
  1330.    and xgobi.
  1331.      The software is available from two FTP sites:
  1332.    CMU's simulator collection on "pt.cs.cmu.edu" (128.2.254.155)
  1333.    in /afs/cs/project/connect/code/am6.tar.Z". 
  1334.    and UCLA's cognitive science machine "ftp.cognet.ucla.edu" (128.97.50.19)
  1335.    in alexis/am6.tar.Z
  1336.    The compressed tar file is a little less than 2 megabytes.
  1337.  
  1338. 13. Adaptive Logic Network kit 
  1339.    Available from menaik.cs.ualberta.ca.  This package differs from
  1340.    the traditional nets in that it uses logic functions rather than
  1341.    floating point; for many tasks, ALN's can show many orders of
  1342.    magnitude gain in training and performance speed.
  1343.    Anonymous ftp from menaik.cs.ualberta.ca [129.128.4.241] 
  1344.    README                         /pub/atree/atree.readme   (7 KB)
  1345.    unix source code and examples: /pub/atree/atree2.tar.Z   (145 KB)
  1346.    Postscript documentation:      /pub/atree/atree2.ps.Z    ( 76 KB)
  1347.    MS-Windows 3.x executable:     /pub/atree/a27exe.exe     (412 KB)
  1348.    MS-Windows 3.x source code:    /pub/atree/atre27.exe     (572 KB)
  1349.  
  1350. 14. NeuralShell
  1351.    Available from FTP site quanta.eng.ohio-state.edu
  1352.    (128.146.35.1) in directory "pub/NeuralShell", filename
  1353.    "NeuralShell.tar".
  1354.  
  1355. 15. PDP
  1356.    The PDP simulator package is available via anonymous FTP at
  1357.    nic.funet.fi  (128.214.6.100) in /pub/sci/neural/sims/pdp.tar.Z (0.2 MB)
  1358.    The simulator is also available with the book
  1359.     "Explorations in Parallel Distributed Processing: A Handbook of
  1360.      Models, Programs, and Exercises" by McClelland and Rumelhart.
  1361.      MIT Press, 1988.
  1362.    Comment: "This book is often referred to as PDP vol III which is a very
  1363.    misleading practice!  The book comes with software on an IBM disk but
  1364.    includes a makefile for compiling on UNIX systems.  The version of
  1365.    PDP available at nic.funet.fi seems identical to the one with the book
  1366.    except for a bug in bp.c which occurs when you try to run a script of
  1367.    PDP commands using the DO command.  This can be found and fixed easily."
  1368.  
  1369. 16. Xerion
  1370.    Xerion is available via anonymous ftp from 
  1371.    ftp.cs.toronto.edu in the directory /pub/xerion.  
  1372.    xerion-3.1.ps.Z (153 kB) and xerion-3.1.tar.Z (1322 kB) plus
  1373.    several concrete simulators built with xerion (about 40 kB each).
  1374.    Xerion runs on SGI and Sun machines and uses X Windows for graphics.
  1375.    The software contains modules that implement Back Propagation,
  1376.    Recurrent Back Propagation, Boltzmann Machine, Mean Field Theory,
  1377.    Free Energy Manipulation, Hard and Soft Competitive Learning, and
  1378.    Kohonen Networks. Sample networks built for each of the modules are
  1379.    also included.
  1380.    Contact: xerion@ai.toronto.edu
  1381.  
  1382. 17. Neocognitron simulator
  1383.   An implementation is available for anonymous ftp at
  1384.     [128.194.15.32] tamsun.tamu.edu as 
  1385.                     /pub/neocognitron.Z.tar     or
  1386.     [129.12.21.7]   unix.hensa.ac.uk as 
  1387.                     /pub/uunet/pub/ai/neural/neocognitron.tar.Z
  1388.   The simulator is written in C and comes with a list of references 
  1389.   which are necessary to read to understand the specifics of the
  1390.   implementation. The unsupervised version is coded without (!)
  1391.   C-cell inhibition.
  1392.  
  1393. 18. Multi-Module Neural Computing Environment (MUME)
  1394.   MUME is a simulation environment for multi-modules neural computing. It
  1395.   provides an object oriented facility for the simulation and training 
  1396.   of multiple nets with various architectures and learning algorithms.
  1397.   MUME includes a library of network architectures including feedforward,
  1398.   simple recurrent, and continuously running recurrent neural networks.
  1399.   Each architecture is supported by a variety of learning algorithms.
  1400.   MUME can be used for large scale neural network simulations as it provides
  1401.   support for learning in multi-net environments. It also provide pre- and
  1402.   post-processing facilities.
  1403.   The modules are provided in a library. Several "front-ends" or clients are
  1404.   also available. X-Window support by editor/visualization tool Xmume.
  1405.   MUME can be used to include non-neural computing modules (decision 
  1406.   trees, ...) in applications.
  1407.   Version 0.73 of MUME has been deposited for anonymous ftp on
  1408.   mickey.sedal.su.oz.au (129.78.24.170) in directory /mume.
  1409.   Contact:
  1410.     Marwan Jabri, SEDAL, Sydney University Electrical Engineering,
  1411.     NSW 2006 Australia,  marwan@sedal.su.oz.au
  1412.  
  1413. 19. LVQ_PAK, SOM_PAK
  1414.   These are packages for Learning Vector Quantization and 
  1415.   Self-Organizing Maps, respectively.
  1416.   They have been built by the LVQ/SOM Programming Team of the
  1417.   Helsinki University of Technology, Laboratory of Computer and 
  1418.   Information Science, Rakentajanaukio 2 C, SF-02150 Espoo, FINLAND             
  1419.   There are versions for Unix and MS-DOS available from
  1420.   cochlea.hut.fi (130.233.168.48) in 
  1421.   /pub/lvq_pak/lvq_pak-2.1.tar.Z   (340 kB, Unix)
  1422.   /pub/lvq_pak/lvq_p2r1.exe        (310 kB, MS-DOS self-extract archive)
  1423.   /pub/som_pak/som_pak-1.1.tar.Z   (246 kB, Unix)
  1424.   /pub/som_pak/som_p1r1.exe        (215 kB, MS-DOS self-extract archive)
  1425.  
  1426. 20. SESAME
  1427.   (Software Environment for the Simulation of Adaptive Modular Systems)
  1428.   SESAME  is a  prototypical software implementation  which facilitates
  1429.   * Object-oriented building blocks approach.
  1430.   * Contains a large  set of C++ classes  useful for  neural nets,
  1431.     neurocontrol and pattern recognition. No C++ classes can be used as
  1432.     stand alone, though! 
  1433.   * C++ classes include CartPole, nondynamic  two-robot arms, Lunar Lander,
  1434.     Backpropagation,  Feature Maps,   Radial Basis Functions,  TimeWindows,
  1435.     Fuzzy Set Coding,  Potential Fields,  Pandemonium,  and diverse utility
  1436.     building blocks.
  1437.   * A kernel which is the framework for the C++ classes and allows run-time
  1438.     manipulation,  construction,  and integration  of arbitrary complex and
  1439.     hybrid experiments. 
  1440.   * Currently no graphic interface for construction, only for visualization.
  1441.   * Platform is SUN4, XWindows
  1442.   Unfortunately no reasonable good introduction has been written until now.
  1443.   We hope to have something soon.  For now we provide papers (eg. NIPS-92),
  1444.   a reference manual (>220 pages), source code  (ca. 35.000 lines of
  1445.   code), and a SUN4-executable by ftp only.
  1446.   Sesame and its description is available for anonymous ftp on
  1447.      ftp ftp.gmd.de [129.26.8.90] in the directories
  1448.      gmd/as/sesame   and   gmd/as/paper
  1449.   Questions please to sesame-request@gmd.de
  1450.   There is only very limited support available. Currently we can not handle
  1451.   many users.
  1452.  
  1453. 21. Nevada Backpropagation (NevProp) 
  1454.   NevProp is a free, easy-to-use feedforward backpropagation
  1455.   (multilayer perceptron) program.  It uses an interactive
  1456.   character-based interface, and is distributed as C source code that
  1457.   should compile and run on most platforms. (Precompiled executables are
  1458.   available for Macintosh and DOS.)  The original version was Quickprop
  1459.   1.0 by Scott Fahlman, as translated from Common Lisp by Terry Regier.
  1460.   We added early-stopped training based on a held-out subset of data, c
  1461.   index (ROC curve area) calculation, the ability to force gradient
  1462.   descent (per-epoch or per-pattern), and additional options.
  1463.   *** FEATURES:   NevProp version 1.16...
  1464.    o UNLIMITED (except by machine memory) number of input PATTERNS;
  1465.    o UNLIMITED number of input, hidden, and output UNITS;
  1466.    o Arbitrary CONNECTIONS among the various layers' units;
  1467.    o Clock-time or user-specified RANDOM SEED for initial random weights;
  1468.    o Choice of regular GRADIENT DESCENT or QUICKPROP;
  1469.    o Choice of PER-EPOCH or PER-PATTERN (stochastic) weight updating;
  1470.    o GENERALIZATION to a test dataset;
  1471.    o AUTOMATICALLY STOPPED TRAINING based on generalization;
  1472.    o RETENTION of best-generalizing weights and predictions;
  1473.    o Simple but useful GRAPHIC display to show smoothness of generalization;
  1474.    o SAVING of results to a file while working interactively;
  1475.    o SAVING of weights file and reloading for continued training;
  1476.    o PREDICTION-only on datasets by applying an existing weights file;
  1477.    o In addition to RMS error, the concordance, or c index is displayed.
  1478.      The c index (area under the ROC curve) shows the correctness of the
  1479.      RELATIVE ordering of predictions AMONG the cases; ie, it is a 
  1480.      measure of discriminative power of the model.
  1481.   *** AVAILABILITY: 
  1482.    The most updated version of NevProp will be made available 
  1483.    by anonymous ftp from the University of Nevada, Reno:
  1484.    "ftp.scs.unr.edu" in the directory "pub/goodman/nevpropdir".
  1485.   *** PLANS FOR NEXT RELEASE: 
  1486.    Version 2 to be released in Spring of 1994 -- some of the new features:
  1487.    more flexible file formatting (including access to external data files;
  1488.    option to prerandomize data order; randomized stochastic gradient descent;
  1489.    option to rescale predictor (input) variables); linear output units as an
  1490.    alternative to sigmoidal units for use with continuous-valued dependent
  1491.    variables (output targets); cross-entropy (maximum likelihood) criterion
  1492.    function as an alternative to square error for use with categorical
  1493.    dependent variables (classification/symbolic/nominal targets); and
  1494.    interactive interrupt to change settings on-the-fly.
  1495.    (If you'd like to beta test prerelease version, contact goodman@unr.edu)
  1496.   *** SUPPORT: 
  1497.    Limited support is available from Phil Goodman (goodman@unr.edu),
  1498.    University of Nevada Center for Biomedical Research.
  1499.  
  1500. 22. Fuzzy ARTmap
  1501.    Available for anonymous ftp from park.bu.edu [128.176.121.56]
  1502.    as /pub/fuzzy-artmap.tar.Z  (44 kB)
  1503.    (This is just a small example program.)
  1504.  
  1505. 23. PYGMALION
  1506.    This is a prototype that stems from an ESPRIT project. It implements
  1507.    back-propagation, self organising map, and Hopfield nets.
  1508.    On imag.imag.fr [129.88.32.1] in directory archive/pygmalion:
  1509.    pygmalion.tar.Z (1534 kb)
  1510.  
  1511. 24. Basis-of-AI-backprop:
  1512.    Here are some of the details of a set of back-propagation programs I
  1513.    have been working on.  Earlier versions have been posted in
  1514.    comp.sources.misc and people around the world have used them and liked
  1515.    them.  This package is free for ordinary users but shareware for
  1516.    businesses and government agencies ($200/copy, but then for this you get
  1517.    the professional version as well).  I do support this package via email.
  1518.    Some of the highlights are:
  1519.    * in C for UNIX and DOS and DOS binaries
  1520.    * gradient descent, delta-bar-delta and quickprop
  1521.    * extra fast 16-bit fixed point weight version as well as a conventional
  1522.      floating point version
  1523.    * recurrent networks
  1524.    * numerous sample problems
  1525.    To get this version simply ftp to ftp.mcs.com where you will land in the
  1526.    directory /work/public/mcsnet.users. Then cd to drt and read readme.1st.
  1527.    The expanded professional version is $30/copy for ordinary
  1528.    individuals including academics and $200/copy for businesses and
  1529.    government agencies.  Prices and contents subject to change without
  1530.    notice.  Some of the highlights are an improved user interface, more
  1531.    activation functions, networks can be read into your own programs,
  1532.    dynamic node creation, weight decay, SuperSAB
  1533.    Contact: Don Tveter; 5228 N. Nashville Ave.; Chicago, Illinois 60656
  1534.             drt@mcs.com
  1535.  
  1536. 25. Matrix Backpropagation
  1537.    MBP (Matrix Back Propagation) is an efficient implementation of the
  1538.    back-propagation algorithm for current-generation workstations.  The
  1539.    algorithm includes a per-epoch adaptive technique for gradient
  1540.    descent.  All the computations are done through matrix multiplications
  1541.    and make use of highly optimized C code. The goal is to reach almost
  1542.    peak-performances on RISCs with superscalar capabilities and fast
  1543.    caches.  On some machines (and with large networks) a 30-40x speed-up
  1544.    can be measured respect to conventional implementations.
  1545.    The software is available by anonymous ftp from
  1546.       risc6000.dibe.unige.it:/pub/ [130.251.89.154]
  1547.    as MBPv1.1.tar.Z (unix version) and MBPv11.zip (DOS version).  The
  1548.    documentation is included in the distribution as the postscript file
  1549.    mbpv11.ps. For more information, contact Davide Anguita
  1550.    <anguita@dibe.unige.it> or <anguita@icsi.berkeley.edu>.
  1551.  
  1552. 26. WinNN
  1553.    WinNN is a shareware Neural Networks (NN) package for windows 3.1.
  1554.    WinNN incorporates a very user friendly interface with a powerful
  1555.    computational engine. WinNN is intended to be used as a tool for
  1556.    beginners and more advanced neural networks users, it provides an
  1557.    alternative to using more expensive and hard to use packages. WinNN
  1558.    can implement feed forward multi-layered NN and uses a modified
  1559.    fast back-propagation for training.
  1560.    Extensive on line help. Has various neuron functions.
  1561.    Allows on the fly testing of the network performance and generalization.
  1562.    All training parameters can be easily modified while WinNN is training.
  1563.    Results can be saved on disk or copied to the clipboard.
  1564.    Supports plotting of the outputs and weight distribution.
  1565.    Available for ftp from wuarcive.wustl.edu in pub/MSDOS_UPLOADS/win3
  1566.    and pub/MSDOS_UPLOADS/win; the file name is WINNN09.ZIP (542 kB).
  1567.  
  1568. For some of these simulators there are user mailing lists. Get the
  1569. packages and look into their documentation for further info.
  1570.  
  1571. If you are using a small computer (PC, Mac, etc.) you may want to have
  1572. a look at the  Central Neural System Electronic Bulletin Board
  1573. (see Answer 14)
  1574. Modem: 509-627-6CNS; Sysop: Wesley R. Elsberry;
  1575. P.O. Box 1187, Richland, WA 99352; welsberr@sandbox.kenn.wa.us
  1576. There are lots of small simulator packages, the CNS ANNSIM file set.
  1577. There is an ftp mirror site for the CNS ANNSIM file set at
  1578. me.uta.edu (129.107.2.20) in the /pub/neural directory.  Most ANN
  1579. offerings are in /pub/neural/annsim.
  1580.  
  1581. ------------------------------------------------------------------------
  1582.  
  1583. -A16.) Commercial software packages for NN simulation ?
  1584.  
  1585. [preliminary]
  1586. [who will write some short comment on each of the most 
  1587.  important packages ?]
  1588.  
  1589. The Number 1 of each volume of the journal "Neural Networks" has a list
  1590. of some dozens of commercial suppliers of Neural Network things:
  1591. Software, Hardware, Support, Programming, Design and Service.
  1592.  
  1593. 1. nn/xnn
  1594.      Name: nn/xnn
  1595.   Company: Neureka ANS
  1596.   Address: Klaus Hansens vei 31B
  1597.            5037 Solheimsviken
  1598.            NORWAY
  1599.     Phone:   +47-55544163 / +47-55201548
  1600.     Email:   arnemo@eik.ii.uib.no
  1601.  Basic capabilities:
  1602.    Neural network development tool. nn is a language for specification of
  1603.    neural network simulators. Produces C-code and executables for the
  1604.    specified models, therefore ideal for application development. xnn is
  1605.    a graphical front-end to nn and the simulation code produced by nn.
  1606.    Gives graphical representations in a number of formats of any
  1607.    variables during simulation run-time. Comes with a number of
  1608.    pre-implemented models, including: Backprop (several variants), Self
  1609.    Organizing Maps, LVQ1, LVQ2, Radial Basis Function Networks,
  1610.    Generalized Regression Neural Networks, Jordan nets, Elman nets,
  1611.    Hopfield, etc.
  1612.  Operating system: nn: UNIX or MS-DOS, xnn: UNIX/X-windows
  1613.  System requirements: 10 Mb HD, 2 Mb RAM
  1614.  Approx. price: USD 2000,-
  1615.  
  1616.  
  1617. 2. BrainMaker
  1618.         Name: BrainMaker, BrainMaker Pro
  1619.      Company: California Scientific Software
  1620.      Address: 10024 Newtown rd, Nevada City, CA, 95959 USA
  1621.    Phone,Fax: 916 478 9040, 916 478 9041
  1622.        Email:  calsci!mittmann@gvgpsa.gvg.tek.com (flakey connection)
  1623.   Basic capabilities:  train backprop neural nets
  1624.   Operating system:   DOS, Windows, Mac
  1625.   System requirements:
  1626.   Uses XMS or EMS for large models(PCs only): Pro version
  1627.   Approx. price:  $195, $795
  1628.  
  1629.   BrainMaker Pro 3.0 (DOS/Windows)     $795
  1630.       Gennetic Training add-on         $250
  1631.     ainMaker 3.0 (DOS/Windows/Mac)     $195
  1632.       Network Toolkit add-on           $150
  1633.   BrainMaker 2.5 Student version       (quantity sales only, about $38 each)
  1634.  
  1635.   BrainMaker Pro C30 Accelerator Board
  1636.             w/ 5Mb memory              $9750
  1637.             w/32Mb memory              $13,000
  1638.  
  1639.   Intel iNNTS NN Development System    $11,800
  1640.        Intel EMB Multi-Chip Board      $9750
  1641.        Intel 80170 chip set            $940
  1642.  
  1643.   Introduction To Neural Networks book $30
  1644.  
  1645.   California Scientific Software can be reached at:
  1646.   Phone: 916 478 9040     Fax: 916 478 9041    Tech Support: 916 478 9035
  1647.   Mail: 10024 newtown rd, Nevada City, CA, 95959, USA
  1648.   All Software has a 30 day money back guarantee, and unlimited free technical
  1649.   support.
  1650.   BrainMaker package includes:
  1651.    The book Introduction to Neural Networks
  1652.    BrainMaker Users Guide and reference manual
  1653.        300 pages , fully indexed, with tutorials, and sample Neural Networks
  1654.    Netmaker
  1655.        Netmaker makes building and training Neural Networks easy, by
  1656.        importing and automatically creating BrainMaker's Neural Network
  1657.        files.  Netmaker imports Lotus, Excel, dBase, and ASCII files.
  1658.    BrainMaker
  1659.        Full menu and dialog box interface, runs Backprop at 750,000 cps on a
  1660.        33Mhz 486.
  1661.  
  1662.   Feature                 BrainMaker  Professional    Benefit
  1663.  
  1664.   User Interface
  1665.   Pull-down Menus, Dialog Boxes   {    {    easy to learn and use; all parameters
  1666.                                             saved in a file you can edit.
  1667.   Programmable Output Files       {    {    exports data in your format to
  1668.                                             spreadsheets, graphics packages, etc.
  1669.   Editing in BrainMaker           {    {    quickly edit data, display, network
  1670.                                             connections, and more.
  1671.   Network Progress Display             {    monitors training with a simple
  1672.                                             graphic display.
  1673.   Fact Annotation                 {    {    attaches your comments to examples
  1674.                                             for display and printing.
  1675.   Printer Support                 {    {    HP LaserJet, DeskJet, InkJet,
  1676.                                             IBM Proprinter, Epson, etc.
  1677.   NetPlotter                      T    {    see how the input correlates with
  1678.                                             your output.
  1679.   Graphics Built In                    {    shows trends, cycles, network
  1680.                                             responses, statistics, etc.;
  1681.                                             see it on screen, plotter, or printer.
  1682.   Dynamic Data Exchange                {    puts your network in other windows
  1683.                                             programs
  1684.  
  1685.   Performance
  1686.   Binary Mode                     T    {    uses binary files for greater speed.
  1687.   Batch Mode                           {    add networks to your existing
  1688.                                             programs, train while you're away.
  1689.   EMS and XMS Memory                   {    up to 8192 independent variables.
  1690.   Save Network Periodically       {    {    saves results to a file in case of
  1691.                                             power failure.
  1692.   Fastest Algorithms              {    {    750,000 connections-per-second
  1693.                                             (486/50).
  1694.   Neurons per Layer             512  32,000 more inputs: model complex data
  1695.                                             with ease.
  1696.   Number of Layers                8    8    extra hidden layers can help tackle
  1697.                                             bigger problems.
  1698.  
  1699.   Training
  1700.   Specify Parameters by Layer          {    fine-tunes performance inside the netw
  1701.   Recurrence Networks                  {    Puts feedback in your network,
  1702.                                             automates historical input.
  1703.   Prune Connections and Neurons        {    improves accuracy by trimming away
  1704.                                             excess "fat".
  1705.   Add Hidden Neurons In Training  {    {    finds best size network quickly;
  1706.                                             fully automated with Professional.
  1707.   Custom Neuron Functions         {    {    optimizes training to suit any need.
  1708.   Testing While Training          {    {    trains for best performance on new
  1709.                                             data.
  1710.   Stop training when...                {    lets you decide when network has
  1711.                                             learned well.
  1712.   Heavy Weights                        {    helps networks train.
  1713.   Hypersonic Training             T    {    trains faster with this proprietary
  1714.                                             algorithm.
  1715.  
  1716.   Analysis, Advanced Functions
  1717.   Sensitivity Analysis                 {    shows you which inputs determined
  1718.                                             your results.
  1719.   Neuron Sensitivity                   {    shows you the total effect of one
  1720.                                             input on your results.
  1721.   Global Network Analysis              {    shows how the networks reacts to
  1722.                                             your inputs overall
  1723.   Contour Analysis                     {    shows peaks and valleys of the output
  1724.                                             when two inputs change
  1725.   Data Correlator                      {    finds important data and optimum
  1726.                                             time delays.
  1727.   Error Statistics Report         {    {    check your network error rate during
  1728.                                             training.
  1729.   Print or Edit Weight Matrices   {    {    examine, customize network internals.
  1730.   Competitor                           {    ranks horses, teams, stocks, etc.
  1731.                                             in finish order.
  1732.   Run Time System                      {    C source code - make programs with
  1733.                                             your network for resale.
  1734.   Chip Support                    {    {    Intel, American Neurologics,
  1735.                                             Micro Devices.
  1736.   Genetic Training Option              G    trains variations of your design
  1737.                                             and shows you which was the best.
  1738.  
  1739.   Network Data Management Functions
  1740.   NetMaker                        {    {    spreadsheet-like data manipulation
  1741.                                             and network file creation.
  1742.   NetChecker                      {    {    checks your files for errors and
  1743.                                             inconsistencies.
  1744.   Shuffle                         {    {    mixes up the order of examples for
  1745.                                             better training.
  1746.   Binary                          T    {    converts files to binary for quicker
  1747.                                             training.
  1748.   MinMax                          {    {    finds min / max / standard deviation
  1749.                                             of data for fine-tuned results.
  1750.   Data Importation                {    {    reads data from Lotus, dBASE,
  1751.                                             Excel, ASCII, binary.
  1752.   Finacial Data                        {    reads MetaStock, and Computrack
  1753.   Data Manipulation               {    {    finds indicators, oscillators,
  1754.                                             running averages, etc.
  1755.   Cyclic Analysis                      {    checks data for periodic or cyclic
  1756.                                             behavior.
  1757.   Data Types                      {    {    uses symbolic, text, picture,
  1758.                                             and numeric data.
  1759.  
  1760.   Documentation & User Support
  1761.   User's Guide                    {    {    an application development guide
  1762.                                             and quick-start booklet.
  1763.   Introduction to Neural Networks {    {    324 pp, gets you up to date in this
  1764.                                             exciting field.
  1765.  
  1766.  
  1767. 3. SAS Software/ Neural Net add-on
  1768.        Name: SAS Software
  1769.     Company: SAS Institute, Inc.
  1770.     Address: SAS Campus Drive, Cary, NC 27513, USA
  1771.   Phone,Fax: (919) 677-8000
  1772.       Email: saswss@unx.sas.com (Neural net inquiries only)
  1773.  
  1774.  Basic capabilities:
  1775.    Feedforward nets with numerous training methods
  1776.    and loss functions, plus statistical analogs of
  1777.    counterpropagation and various unsupervised
  1778.    architectures
  1779.  Operating system: Lots
  1780.  System requirements: Lots
  1781.  Uses XMS or EMS for large models(PCs only): Runs under Windows, OS/2
  1782.  Approx. price: Free neural net software, but you have to license
  1783.                 SAS/Base software and preferably the SAS/OR, SAS/ETS,
  1784.                 and/or SAS/STAT products.
  1785.  Comments: Oriented toward data analysis and statistical applications
  1786.  
  1787.  
  1788. 4. NeuralWorks
  1789.      Name: NeuralWorks Professional II Plus (from NeuralWare)
  1790.   Company: NeuralWare Inc.
  1791.    Adress: Pittsburgh, PA 15276-9910
  1792.     Phone: (412) 787-8222
  1793.       FAX: (412) 787-8220
  1794.  
  1795.  Distributor for Europe: 
  1796.    Scientific Computers GmbH.
  1797.    Franzstr. 107, 52064 Aachen
  1798.    Germany
  1799.    Tel.   (49) +241-26041
  1800.    Fax.   (49) +241-44983
  1801.    Email. info@scientific.de
  1802.  
  1803.  Basic capabilities:
  1804.    supports over 30 different nets: backprop, art-1,kohonen, 
  1805.    modular neural network, General regression, Fuzzy art-map,
  1806.    probabilistic nets, self-organizing map, lvq, boltmann,
  1807.    bsb, spr, etc...
  1808.    Extendable with optional package. 
  1809.    ExplainNet, Flashcode (compiles net in .c code for runtime),
  1810.    user-defined io in c possible. ExplainNet (to eliminate 
  1811.    extra inputs), pruning, savebest,graph.instruments like 
  1812.    correlation, hinton diagrams, rms error graphs etc..
  1813.  Operating system   : PC,Sun,IBM RS6000,Apple Macintosh,SGI,Dec,HP.
  1814.  System requirements: varies. PC:2MB extended memory+6MB Harddisk space.
  1815.                       Uses windows compatible memory driver (extended).
  1816.                       Uses extended memory.
  1817.  Approx. price      : call (depends on platform)
  1818.  Comments           : award winning documentation, one of the market
  1819.                       leaders in NN software.
  1820.  
  1821.  
  1822. 5. MATLAB Neural Network Toolbox (for use with Matlab 4.x)
  1823.    Contact: The MathWorks, Inc.     Phone: 508-653-1415
  1824.             24 Prime Park Way       FAX: 508-653-2997
  1825.             Natick, MA  01760       email: info@mathworks.com
  1826.   (Comment by Richard Andrew Miles Outerbridge, RAMO@UVPHYS.PHYS.UVIC.CA:)
  1827.   Matlab is spreading like hotcakes (and the educational discounts 
  1828.   are very impressive). The newest release of Matlab (4.0) ansrwers
  1829.   the question "if you could only program in one language what would it be?".
  1830.   The neural network toolkit is worth getting for the manual alone. Matlab is
  1831.   available with lots of other toolkits (signal processing, optimization, etc.)
  1832.   but I don't use them much - the main package is more than enough. The nice
  1833.   thing about the Matlab approach is that you can easily interface the neural
  1834.   network stuff with anything else you are doing.
  1835.  
  1836. 6. Propagator
  1837.   Contact: ARD Corporation,
  1838.            9151 Rumsey Road, Columbia, MD  21045, USA
  1839.            propagator@ard.com
  1840.   Easy to use neural network training package.  A true GUI implementation of
  1841.   backpropagation networks with five layers (32,000 nodes per layer).
  1842.   Features dynamic performance graphs, training with a validation set,
  1843.   and C/C++ source code generation.
  1844.   For Sun (Solaris 1.x & 2.x, $499),
  1845.       PC  (Windows 3.x, $199)
  1846.       Mac (System 7.x, $199)
  1847.   Floating point coprocessor required, Educational Discount,
  1848.   Money Back Guarantee,    Muliti User Discount
  1849.   Windows Demo on:
  1850.     nic.funet.fi    /pub/msdos/windows/demo
  1851.     oak.oakland.edu    /pub/msdos/neural_nets
  1852.     gatordem.zip    pkzip 2.04g archive file
  1853.     gatordem.txt    readme text file
  1854.  
  1855. 7. NeuroForecaster
  1856.    Name:    NeuroForecaster(TM)/Genetica 3.1
  1857.    Contact: Accel Infotech (S) Pte Ltd; 648 Geylang Road;
  1858.             Republic of Singapore 1438; Phone: +65-7446863; Fax: +65-7492467
  1859.             accel@solomon.technet.sg
  1860.    For IBM PC 386/486 with mouse, or compatibles MS Windows* 3.1, MS DOS 5.0 or
  1861.    above 4 MB RAM, 5 MB available harddisk space min 3.5 inch floppy drive,
  1862.    VGA monitor or above, Math coprocessor recommended.
  1863.      Neuroforecaster 3.1 for Windows is priced at US$999 per single user
  1864.    license. For a limited period only Genetica is bundled free-of-charge.
  1865.    Please email us (accel@solomon.technet.sg) for order form. 
  1866.      More information about NeuroForecaster(TM)/Genetical may be found in 
  1867.    ftp.nus.sg incoming/accel.
  1868.      NeuroForecaster is a user-friendly neural network program specifically
  1869.    designed for building sophisticated and powerful forecasting and
  1870.    decision-support systems (Time-Series Forecasting, Cross-Sectional
  1871.    Classification, Indicator Analysis)
  1872.    Features:
  1873.    * GENETICA Net Builder Option for automatic network creation and optimization
  1874.    * 12 Neuro-Fuzzy Network Models    
  1875.    * Multitasking & Background Training Mode         
  1876.    * Unlimited Network Capacity     
  1877.    * Rescaled Range Analysis & Hurst Exponent to Unveil Hidden Market Cycles 
  1878.      & Check for Predictability    
  1879.    * Correlation Analysis to Compute Correlation Factors to Analyze the 
  1880.      Significance of Indicators         
  1881.    * Weight Histogram to Monitor the Progress of Learning
  1882.    * Accumulated Error Analysis to Analyze the Strength of Input Indicators    
  1883.    Its user-friendly interface allows the users to build applications quickly, 
  1884.    easily and interactively, analyze the data visually and see the results 
  1885.    immediately.  
  1886.    The following example applications are included in the package:
  1887.    * Credit Rating - for generating the credit rating of bank loan applications  
  1888.    * Stock market 6 monthly returns forecast  
  1889.    * Stock selection based on company ratios  
  1890.    * US$ to Deutschmark exchange rate forecast  
  1891.    * US$ to Yen exchange rate forecast  
  1892.    * US$ to SGD exchange rate forecast  
  1893.    * Property price valuation  
  1894.    * XOR - a classical problem to show the results are better than others  
  1895.    * Chaos - Prediction of Mackey-Glass chaotic time series  
  1896.    * SineWave - For demonstrating the power of Rescaled Range Analysis and 
  1897.      significance of window size
  1898.    Techniques Implemented:
  1899.    * GENETICA Net Builder Option - network creation & optimization based on
  1900.      Darwinian evolution theory
  1901.    * Backprop Neural Networks - the most widely-used training algorithm
  1902.    * Fastprop Neural Networks - speeds up training of large problems even on slow
  1903.      machines
  1904.    * Radial Basis Function Networks - best for pattern classification problems
  1905.    * Neuro-Fuzzy Network - combines the power of neuro and fuzzy computing 
  1906.      technologies
  1907.    * Rescaled Range Analysis - computes Hurst exponents to unveil hidden cycles &
  1908.      check for predictability
  1909.    * Correlation Analysis - to identify significant input indicators
  1910.  
  1911. ------------------------------------------------------------------------
  1912.  
  1913. -A17.) Neural Network hardware ?
  1914.  
  1915. [preliminary]
  1916. [who will write some short comment on the most important
  1917.  HW-packages and chips ?]
  1918.  
  1919. The Number 1 of each volume of the journal "Neural Networks" has a list
  1920. of some dozens of suppliers of Neural Network support:
  1921. Software, Hardware, Support, Programming, Design and Service.
  1922.  
  1923. Here is a list of companies contributed by xli@computing-maths.cardiff.ac.uk:
  1924.  
  1925. 1. HNC, INC.
  1926.    5501 Oberlin Drive
  1927.    San Diego
  1928.    California 92121
  1929.    (619) 546-8877
  1930.       and a second address at
  1931.    7799 Leesburg Pike, Suite 900
  1932.    Falls Church, Virginia
  1933.    22043
  1934.    (703) 847-6808
  1935.       Note: Australian Dist.: Unitronics 
  1936.                               Tel : (09) 4701443
  1937.                               Contact: Martin Keye
  1938.    HNC markets:
  1939.     'Image Document Entry Processing Terminal' - it recognises
  1940.     handwritten documents and converts the info to ASCII.
  1941.     'ExploreNet 3000' - a NN demonstrator
  1942.     'Anza/DP Plus'- a Neural Net board with 25MFlop or 12.5M peak 
  1943.     interconnects per second.
  1944.  
  1945. 2. SAIC (Sience Application International Corporation)
  1946.    10260 Campus Point Drive
  1947.    MS 71, San Diego
  1948.    CA 92121
  1949.    (619) 546 6148
  1950.    Fax: (619) 546 6736
  1951.  
  1952. 3. Micro Devices
  1953.    30 Skyline Drive
  1954.    Lake Mary
  1955.    FL 32746-6201
  1956.    (407) 333-4379
  1957.    MicroDevices makes   MD1220 - 'Neural Bit Slice'
  1958.    Each of the products mentioned sofar have very different usages.
  1959.    Although this sounds similar to Intel's product, the
  1960.    architectures are not.
  1961.  
  1962. 4. Intel Corp
  1963.    2250 Mission College Blvd
  1964.    Santa Clara, Ca 95052-8125
  1965.    Attn ETANN, Mail Stop SC9-40
  1966.    (408) 765-9235
  1967.    Intel is making an experimental chip:
  1968.    80170NW - Electrically trainable Analog Neural Network (ETANN)
  1969.    It has 64 'neurons' on it - almost fully internally connectted
  1970.    and the chip can be put in an hierarchial architecture to do 2 Billion
  1971.    interconnects per second.
  1972.    Support software has already been made by
  1973.      California Scientific Software
  1974.      10141 Evening Star Dr #6
  1975.      Grass Valley, CA 95945-9051
  1976.      (916) 477-7481
  1977.    Their product is called 'BrainMaker'.
  1978.    
  1979. 5. NeuralWare, Inc
  1980.    Penn Center West
  1981.    Bldg IV Suite 227
  1982.    Pittsburgh
  1983.    PA 15276
  1984.    They only sell software/simulator but for many platforms.
  1985.  
  1986. 6. Tubb Research Limited
  1987.    7a Lavant Street
  1988.    Peterfield
  1989.    Hampshire
  1990.    GU32 2EL
  1991.    United Kingdom
  1992.    Tel: +44 730 60256
  1993.  
  1994. 7. Adaptive Solutions Inc
  1995.    1400 NW Compton Drive
  1996.    Suite 340
  1997.    Beaverton, OR 97006
  1998.    U. S. A.
  1999.    Tel: 503 - 690 - 1236   FAX: 503 - 690 - 1249
  2000.  
  2001. 8. NeuroDynamX, Inc.
  2002.    4730 Walnut St., Suite 101B
  2003.    Boulder, CO 80301
  2004.    Voice: (303) 442-3539   Fax: (303) 442-2854
  2005.    Internet: techsupport@ndx.com
  2006.    NDX sells a number neural network hardware products:
  2007.    NDX Neural Accelerators: a line of i860-based accelerator cards for
  2008.    the PC that give up to 45 million connections per second for use 
  2009.    with the DynaMind neural network software.
  2010.    iNNTS: Intel's 80170NX (ETANN) Neural Network Training System. NDX's president
  2011.    was one of the co-designers of this chip.
  2012.  
  2013.  
  2014. And here is an incomplete list of Neurocomputers 
  2015. (provided by jon@kongle.idt.unit.no (Jon Gunnar Solheim)):
  2016.  
  2017. Overview over known Neural Computers with their newest known reference.
  2018. \subsection*{Digital}
  2019. \subsubsection{Special Computers}
  2020.  
  2021. {\bf AAP-2}
  2022. Takumi Watanabe, Yoshi Sugiyama, Toshio Kondo, and Yoshihiro Kitamura.
  2023. Neural network simulation on a massively parallel cellular array
  2024. processor: AAP-2. 
  2025. In International Joint Conference on Neural Networks, 1989.
  2026.  
  2027. {\bf ANNA}
  2028. B.E.Boser, E.Sackinger, J.Bromley, Y.leChun, and L.D.Jackel.\\
  2029. Hardware Requirements for Neural Network Pattern Classifiers.\\
  2030. In {\it IEEE Micro}, 12(1), pages 32-40, February 1992.
  2031.  
  2032. {\bf Analog Neural Computer}
  2033. Paul Mueller et al. 
  2034. Design and performance of a prototype analog neural computer. 
  2035. In Neurocomputing, 4(6):311-323, 1992.
  2036.  
  2037. {\bf APx -- Array Processor Accelerator}\\
  2038. F.Pazienti.\\
  2039. Neural networks simulation with array processors. 
  2040. In {\it Advanced Computer Technology, Reliable Systems and Applications;
  2041. Proceedings of the 5th Annual Computer Conference}, pages 547-551. 
  2042. IEEE Comput. Soc. Press, May 1991. ISBN: 0-8186-2141-9.
  2043.  
  2044. {\bf ASP -- Associative String Processor}\\
  2045. A.Krikelis.\\
  2046. A novel massively associative processing architecture for the
  2047. implementation artificial neural networks.\\
  2048. In {\it 1991 International Conference on Acoustics, Speech and 
  2049. Signal Processing}, volume 2, pages 1057-1060. IEEE Comput. Soc. Press,
  2050. May 1991.
  2051.  
  2052. {\bf BSP400}
  2053. Jan N.H. Heemskerk, Jacob M.J. Murre, Jaap Hoekstra, Leon H.J.G.
  2054. Kemna, and Patrick T.W. Hudson. 
  2055. The bsp400: A modular neurocomputer assembled from 400 low-cost
  2056. microprocessors. 
  2057. In International Conference on Artificial Neural Networks. Elsevier
  2058. Science, 1991.
  2059.  
  2060. {\bf BLAST}\\
  2061. J.G.Elias, M.D.Fisher, and C.M.Monemi.\\
  2062. A multiprocessor machine for large-scale neural network simulation.
  2063. In {\it IJCNN91-Seattle: International Joint Conference on Neural
  2064. Networks}, volume 1, pages 469-474. IEEE Comput. Soc. Press, July 1991.
  2065. ISBN: 0-7883-0164-1.
  2066.  
  2067. {\bf CNAPS Neurocomputer}\\
  2068. H.McCartor\\
  2069. Back Propagation Implementation on the Adaptive Solutions CNAPS
  2070. Neurocomputer.\\
  2071. In {\it Advances in Neural Information Processing Systems}, 3, 1991.
  2072.  
  2073. {\bf MA16 -- Neural Signal Processor}
  2074. U.Ramacher, J.Beichter, and N.Bruls.\\
  2075. Architecture of a general-purpose neural signal processor.\\
  2076. In {\it IJCNN91-Seattle: International Joint Conference on Neural
  2077. Networks}, volume 1, pages 443-446. IEEE Comput. Soc. Press, July 1991.
  2078. ISBN: 0-7083-0164-1.
  2079.  
  2080. {\bf Mindshape}
  2081. Jan N.H. Heemskerk, Jacob M.J. Murre Arend Melissant, Mirko Pelgrom,
  2082. and Patrick T.W. Hudson. 
  2083. Mindshape: a neurocomputer concept based on a fractal architecture. 
  2084. In International Conference on Artificial Neural Networks. Elsevier
  2085. Science, 1992. 
  2086.  
  2087. {\bf mod 2}
  2088. Michael L. Mumford, David K. Andes, and Lynn R. Kern. 
  2089. The mod 2 neurocomputer system design. 
  2090. In IEEE Transactions on Neural Networks, 3(3):423-433, 1992.
  2091.  
  2092. {\bf NERV}\\
  2093. R.Hauser, H.Horner, R. Maenner, and M.Makhaniok.\\
  2094. Architectural Considerations for NERV - a General Purpose Neural
  2095. Network Simulation System.\\
  2096. In {\it Workshop on Parallel Processing: Logic, Organization and
  2097. Technology -- WOPPLOT 89}, pages 183-195. Springer Verlag, Mars 1989.
  2098. ISBN: 3-5405-5027-5.
  2099.  
  2100. {\bf NP -- Neural Processor}\\
  2101. D.A.Orrey, D.J.Myers, and J.M.Vincent.\\
  2102. A high performance digital processor for implementing large artificial
  2103. neural networks.\\
  2104. In {\it Proceedings of of the IEEE 1991 Custom Integrated Circuits
  2105. Conference}, pages 16.3/1-4. IEEE Comput. Soc. Press, May 1991. 
  2106. ISBN: 0-7883-0015-7.
  2107.  
  2108. {\bf RAP -- Ring Array Processor }\\
  2109. N.Morgan, J.Beck, P.Kohn, J.Bilmes, E.Allman, and J.Beer.\\
  2110. The ring array processor: A multiprocessing peripheral for connectionist
  2111. applications. \\
  2112. In {\it Journal of Parallel and Distributed Computing}, pages
  2113. 248-259, April 1992.
  2114.  
  2115. {\bf RENNS -- REconfigurable Neural Networks Server}\\
  2116. O.Landsverk, J.Greipsland, J.A.Mathisen, J.G.Solheim, and L.Utne.\\
  2117. RENNS - a Reconfigurable Computer System for Simulating Artificial
  2118. Neural Network Algorithms.\\
  2119. In {\it Parallel and Distributed Computing Systems, Proceedings of the
  2120. ISMM 5th International Conference}, pages 251-256. The International
  2121. Society for Mini and Microcomputers - ISMM, October 1992. 
  2122. ISBN: 1-8808-4302-1.
  2123.  
  2124. {\bf SMART -- Sparse Matrix Adaptive and Recursive Transforms}\\
  2125. P.Bessiere, A.Chams, A.Guerin, J.Herault, C.Jutten, and J.C.Lawson.\\
  2126. From Hardware to Software: Designing a ``Neurostation''.\\
  2127. In {\it VLSI design of Neural Networks}, pages 311-335, June 1990.
  2128.  
  2129. {\bf SNAP -- Scalable Neurocomputer Array Processor}
  2130. E.Wojciechowski.\\
  2131. SNAP: A parallel processor for implementing real time neural networks.\\
  2132. In {\it Proceedings of the IEEE 1991 National Aerospace and Electronics
  2133. Conference; NAECON-91}, volume 2, pages 736-742. IEEE Comput.Soc.Press,
  2134. May 1991.
  2135.  
  2136. {\bf Toroidal Neural Network Processor}\\
  2137. S.Jones, K.Sammut, C.Nielsen, and J.Staunstrup.\\
  2138. Toroidal Neural Network: Architecture and Processor Granularity
  2139. Issues.\\
  2140. In {\it VLSI design of Neural Networks}, pages 229-254, June 1990.
  2141.  
  2142. {\bf SMART and SuperNode}
  2143. P. Bessi`ere, A. Chams, and P. Chol. 
  2144. MENTAL : A virtual machine approach to artificial neural networks programming.
  2145. In NERVES, ESPRIT B.R.A. project no 3049, 1991. 
  2146. (The report archived on neuroprose}
  2147.  
  2148.  
  2149. \subsubsection{Standard Computers}
  2150.  
  2151. {\bf EMMA-2}\\
  2152. R.Battiti, L.M.Briano, R.Cecinati, A.M.Colla, and P.Guido.\\
  2153. An application oriented development environment for Neural Net models on
  2154. multiprocessor Emma-2.\\
  2155. In {\it Silicon Architectures for Neural Nets; Proceedings for the IFIP
  2156. WG.10.5 Workshop}, pages 31-43. North Holland, November 1991. 
  2157. ISBN: 0-4448-9113-7.
  2158.  
  2159. {\bf iPSC/860 Hypercube}\\
  2160. D.Jackson, and D.Hammerstrom\\
  2161. Distributing Back Propagation Networks Over the Intel iPSC/860
  2162. Hypercube}\\ 
  2163. In {\it IJCNN91-Seattle: International Joint Conference on Neural
  2164. Networks}, volume 1, pages 569-574. IEEE Comput. Soc. Press, July 1991.
  2165. ISBN: 0-7083-0164-1.
  2166.  
  2167. {\bf SCAP -- Systolic/Cellular Array Processor}\\
  2168. Wei-Ling L., V.K.Prasanna, and K.W.Przytula.\\
  2169. Algorithmic Mapping of Neural Network Models onto Parallel SIMD
  2170. Machines.\\
  2171. In {\it IEEE Transactions on Computers}, 40(12), pages 1390-1401,
  2172. December 1991. ISSN: 0018-9340.
  2173.  
  2174. ------------------------------------------------------------------------
  2175.  
  2176. -A19.) Databases for experimentation with NNs ?
  2177.  
  2178. [are there any more ?]
  2179.  
  2180. 1. The neural-bench Benchmark collection
  2181.    accessible via anonymous FTP on
  2182.      "ftp.cs.cmu.edu" [128.2.206.173]
  2183.    in directory
  2184.      "/afs/cs/project/connect/bench"
  2185.    In case of problems email contact is "neural-bench@cs.cmu.edu".
  2186.    The data sets in this repository include the 'nettalk' data,
  2187.    'two spirals', protein structure prediction, vowel recognition,
  2188.    sonar signal classification, and a few others.
  2189.  
  2190. 2. UCI machine learning database
  2191.    accessible via anonymous FTP on
  2192.      "ics.uci.edu" [128.195.1.1]
  2193.    in directory
  2194.      "/pub/machine-learning-databases"
  2195.  
  2196. 3. NIST special databases of the National Institute Of Standards 
  2197.    And Technology:
  2198.    NIST special database 2: 
  2199.      Structured Forms Reference Set (SFRS)
  2200.  
  2201.      The NIST database of structured forms contains 5,590 full page images
  2202.      of simulated tax forms completed using machine print. THERE IS NO REAL
  2203.      TAX DATA IN THIS DATABASE. The structured forms used in this database
  2204.      are 12 different forms from the 1988, IRS 1040 Package X. These
  2205.      include Forms 1040, 2106, 2441, 4562, and 6251 together with Schedules
  2206.      A, B, C, D, E, F and SE.  Eight of these forms contain two pages or
  2207.      form faces making a total of 20 form faces represented in the
  2208.      database.  Each image is stored in bi-level black and white raster
  2209.      format.  The images in this database appear to be real forms prepared
  2210.      by individuals but the images have been automatically derived and
  2211.      synthesized using a computer and contain no "real" tax data. The entry
  2212.      field values on the forms have been automatically generated by a
  2213.      computer in order to make the data available without the danger of
  2214.      distributing privileged tax information.  In addition to the images
  2215.      the database includes 5,590 answer files, one for each image. Each
  2216.      answer file contains an ASCII representation of the data found in the
  2217.      entry fields on the corresponding image. Image format documentation
  2218.      and example software are also provided.  The uncompressed database
  2219.      totals approximately 5.9 gigabytes of data.
  2220.  
  2221.    NIST special database 3: 
  2222.      Binary Images of Handwritten Segmented Characters (HWSC)
  2223.  
  2224.      Contains 313,389 isolated character images segmented from the
  2225.      2,100 full-page images distributed with "NIST Special Database 1".
  2226.      223,125 digits, 44,951 upper-case, and 45,313 lower-case character
  2227.      images. Each character image has been centered in a separate 
  2228.      128 by 128 pixel region, error rate of the segmentation and
  2229.      assigned classification is less than 0.1%. 
  2230.      The uncompressed database totals approximately 2.75 gigabytes of
  2231.      image data and includes image format documentation and example software.
  2232.  
  2233.  
  2234.    NIST special database 4: 
  2235.      8-Bit Gray Scale Images of Fingerprint Image Groups (FIGS)
  2236.  
  2237.      The NIST database of fingerprint images contains 2000 8-bit gray scale
  2238.      fingerprint image pairs. Each image is 512 by 512 pixels with 32 rows
  2239.      of white space at the bottom and classified using one of the five
  2240.      following classes: A=Arch, L=Left Loop, R=Right Loop, T=Tented Arch,
  2241.      W=Whirl. The database is evenly distributed over each of the five
  2242.      classifications with 400 fingerprint pairs from each class. The images
  2243.      are compressed using a modified JPEG lossless compression algorithm
  2244.      and require approximately 636 Megabytes of storage compressed and 1.1
  2245.      Gigabytes uncompressed (1.6 : 1 compression ratio). The database also
  2246.      includes format documentation and example software.
  2247.  
  2248.    More short overview:
  2249.    Special Database 1 - NIST Binary Images of Printed Digits, Alphas, and Text
  2250.    Special Database 2 - NIST Structured Forms Reference Set of Binary Images
  2251.    Special Database 3 - NIST Binary Images of Handwritten Segmented Characters
  2252.    Special Database 4 - NIST 8-bit Gray Scale Images of Fingerprint Image Groups
  2253.    Special Database 6 - NIST Structured Forms Reference Set 2 of Binary Images
  2254.    Special Database 7 - NIST Test Data 1: Binary Images of Handprinted Segmented
  2255.                         Characters
  2256.    Special Software 1 - NIST Scoring Package Release 1.0
  2257.  
  2258.    Special Database 1 - $895.00
  2259.    Special Database 2 - $250.00
  2260.    Special Database 3 - $895.00
  2261.    Special Database 4 - $250.00
  2262.    Special Database 6 - $250.00
  2263.    Special Database 7 - $1,000.00
  2264.    Special Software 1 - $1,150.00
  2265.   
  2266.    The system requirements for all databases are a 5.25" CD-ROM drive 
  2267.    with software to read ISO-9660 format.
  2268.  
  2269.    Contact:  Darrin L. Dimmick
  2270.              dld@magi.ncsl.nist.gov     (301)975-4147
  2271.  
  2272.    If you wish to order the database, please contact:
  2273.      Standard Reference Data
  2274.      National Institute of Standards and Technology
  2275.      221/A323
  2276.      Gaithersburg, MD 20899
  2277.      (301)975-2208  or  (301)926-0416 (FAX)
  2278.  
  2279. 4. CEDAR CD-ROM 1: Database of Handwritten
  2280.    Cities, States, ZIP Codes, Digits, and Alphabetic Characters
  2281.  
  2282.    The Center Of Excellence for Document Analysis and Recognition (CEDAR)
  2283.    State University of New York at Buffalo announces the availability of
  2284.    CEDAR CDROM 1: USPS Office of Advanced Technology 
  2285.    The database contains handwritten words and ZIP Codes
  2286.    in high resolution grayscale (300  ppi  8-bit)  as  well  as
  2287.    binary handwritten digits and alphabetic characters (300 ppi
  2288.    1-bit).  This database is intended to encourage research  in
  2289.    off-line  handwriting  recognition  by  providing  access to
  2290.    handwriting samples  digitized  from  envelopes in a working
  2291.    post office.
  2292.      Specifications of the database include:
  2293.      +    300 ppi 8-bit grayscale handwritten words (cities,
  2294.           states, ZIP Codes)
  2295.           o    5632 city words
  2296.           o    4938 state words
  2297.           o    9454 ZIP Codes
  2298.      +    300 ppi binary handwritten characters and digits:
  2299.           o    27,837 mixed alphas  and  numerics  segmented
  2300.                from address blocks
  2301.           o    21,179 digits segmented from ZIP Codes
  2302.      +    every image supplied with  a  manually  determined
  2303.           truth value
  2304.      +    extracted from live mail in a  working  U.S.  Post
  2305.           Office
  2306.      +    word images in the test  set  supplied  with  dic-
  2307.           tionaries  of  postal  words that simulate partial
  2308.           recognition of the corresponding ZIP Code.
  2309.      +    digit images included in test  set  that  simulate
  2310.           automatic ZIP Code segmentation.  Results on these
  2311.           data can be projected to overall ZIP Code recogni-
  2312.           tion performance.
  2313.      +    image format documentation and software included
  2314.    System requirements are a 5.25" CD-ROM drive with software  to  read  ISO-
  2315.    9660 format.
  2316.    For any further information, including how to order the
  2317.    database, please contact:
  2318.      Jonathan J. Hull, Associate Director, CEDAR, 226 Bell Hall
  2319.      State University of New York at Buffalo, Buffalo, NY 14260
  2320.      hull@cs.buffalo.edu (email)
  2321.  
  2322. 5. AI-CD-ROM (see above under "other sources of information about NNs")
  2323.  
  2324. 6. Time series archive
  2325.    Various datasets of time series (to be used for prediction learning
  2326.    problems) are available for anonymous ftp at
  2327.    ftp.santafe.edu in pub/Time-Series.
  2328.    For example:
  2329.      - fluctuations in a far-infrared laser
  2330.      - Physiological data of patients with sleep apnea
  2331.      - High frequency currency exchange rate data
  2332.      - Intensity of a white dwarf star
  2333.      - J.S. Bachs final (unfinished) fugue from "Die Kunst der Fuge"
  2334.    Some of the datasets were used in a prediction contest and are described
  2335.    in detail in the book "Time series prediction: Forecasting the future
  2336.    and understanding the past", edited by Weigend/Gershenfield, Proceedings
  2337.    Volume XV in the Santa Fe Institute Studies in the Sciences of Complexity
  2338.    series of Addison Wesley (1994).
  2339.  
  2340. ------------------------------------------------------------------------
  2341.  
  2342.  
  2343.  
  2344. That's all folks.
  2345.  
  2346. ========================================================================
  2347.  
  2348. Acknowledgements: Thanks to all the people who helped to get the stuff
  2349.                   above into the posting. I cannot name them all, because
  2350.                   I would make far too many errors then. :->
  2351.  
  2352.                   No ?  Not good ?  You want individual credit ?
  2353.                   OK, OK. I'll try to name them all. But: no guarantee....
  2354.  
  2355.   THANKS FOR HELP TO:
  2356. (in alphabetical order of email adresses, I hope)
  2357.  
  2358. Allen Bonde <ab04@harvey.gte.com>
  2359. Accel Infotech Spore Pte Ltd <accel@solomon.technet.sg>
  2360. Alexander Linden <al@jargon.gmd.de>
  2361. S.Taimi Ames <ames@reed.edu>
  2362. Axel Mulder <amulder@move.kines.sfu.ca>
  2363. anderson@atc.boeing.com
  2364. Davide Anguita <anguita@ICSI.Berkeley.EDU>
  2365. Avraam Pouliakis <apou@leon.nrcps.ariadne-t.gr>
  2366. Kim L. Blackwell <avrama@helix.nih.gov>
  2367. Paul Bakker <bakker@cs.uq.oz.au>
  2368. Jamshed Bharucha <bharucha@casbs.Stanford.EDU>
  2369. Yijun Cai <caiy@mercury.cs.uregina.ca>
  2370. L. Leon Campbell <campbell@brahms.udel.edu>
  2371. Yaron Danon <danony@goya.its.rpi.edu>
  2372. David Ewing <dave@ndx.com>
  2373. David DeMers <demers@cs.ucsd.edu>
  2374. Denni Rognvaldsson <denni@thep.lu.se>
  2375. Donald Tveter <drt@mcs.com>
  2376. Frank Schnorrenberg <fs0997@easttexas.tamu.edu>
  2377. Gary Lawrence Murphy <garym@maya.isis.org>
  2378. gaudiano@park.bu.edu
  2379. Lee Giles <giles@research.nj.nec.com>
  2380. Glen Clark <opto!glen@gatech.edu>
  2381. Phil Goodman <goodman@unr.edu>
  2382. guy@minster.york.ac.uk
  2383. Joerg Heitkoetter <heitkoet@lusty.informatik.uni-dortmund.de>
  2384. Ralf Hohenstein <hohenst@math.uni-muenster.de>
  2385. Jean-Denis Muller <jdmuller@vnet.ibm.com>
  2386. Jeff Harpster <uu0979!jeff@uu9.psi.com>
  2387. Jonathan Kamens <jik@MIT.Edu>
  2388. JJ Merelo <jmerelo@casip.ugr.es>
  2389. Jon Gunnar Solheim <jon@kongle.idt.unit.no>
  2390. Josef Nelissen <jonas@beor.informatik.rwth-aachen.de>
  2391. Kjetil.Noervaag@idt.unit.no
  2392. Luke Koops <koops@gaul.csd.uwo.ca>
  2393. William Mackeown <mackeown@compsci.bristol.ac.uk>
  2394. Peter Marvit <marvit@cattell.psych.upenn.edu>
  2395. masud@worldbank.org
  2396. Yoshiro Miyata <miyata@sccs.chukyo-u.ac.jp>
  2397. Madhav Moganti <mmogati@cs.umr.edu>
  2398. Jyrki Alakuijala <more@ee.oulu.fi>
  2399. mrs@kithrup.com
  2400. Maciek Sitnik <msitnik@plearn.edu.pl>
  2401. R. Steven Rainwater <ncc@ncc.jvnc.net>
  2402. Michael Plonski <plonski@aero.org>
  2403. Lutz Prechelt <prechelt@ira.uka.de> [creator of FAQ]
  2404. Richard Andrew Miles Outerbridge <ramo@uvphys.phys.uvic.ca>
  2405. Richard Cornelius <richc@rsf.atd.ucar.edu>
  2406. Rob Cunningham <rkc@xn.ll.mit.edu>
  2407. Robert.Kocjancic@IJS.si
  2408. Osamu Saito <saito@nttica.ntt.jp>
  2409. Sheryl Cormicle <sherylc@umich.edu>
  2410. Ted Stockwell <ted@aps1.spa.umn.edu>
  2411. Thomas G. Dietterich <tgd@research.cs.orst.edu>
  2412. Thomas.Vogel@cl.cam.ac.uk
  2413. Ulrich Wendl <uli@unido.informatik.uni-dortmund.de>
  2414. Matthew P Wiener <weemba@sagi.wistar.upenn.edu>
  2415. Wesley Elsberry <welsberr@orca.tamu.edu>
  2416.  
  2417. Bye
  2418.  
  2419.   Lutz
  2420.  
  2421. -- 
  2422. Lutz Prechelt   (email: prechelt@ira.uka.de)            | Whenever you 
  2423. Institut fuer Programmstrukturen und Datenorganisation  | complicate things,
  2424. Universitaet Karlsruhe;  76128 Karlsruhe;  Germany      | they get
  2425. (Voice: ++49/721/608-4068, FAX: ++49/721/694092)        | less simple.
  2426.  
  2427.